OpenAI crea una API de uso múltiple para sus capacidades de IA basadas en texto

OpenAI amplía el acceso a DALL-E 2, su potente sistema de IA generador de imágenes

by

in

Hoy en día, DALL-E 2, el sistema de IA de OpenAI que puede generar imágenes con un aviso o editar y refinar imágenes existentes, está cada vez más disponible. La compañía anunció en una publicación de blog que acelerará el acceso de los clientes en la lista de espera con el objetivo de llegar a aproximadamente 1 millón de personas en las próximas semanas.

Con este lanzamiento “beta”, DALL-E 2, que había sido de uso gratuito, pasará a una estructura de tarifas basada en créditos. Los usuarios nuevos obtendrán una cantidad finita de créditos que se pueden utilizar para generar o editar una imagen o crear una variación de una imagen. (Las generaciones devuelven cuatro imágenes, mientras que las ediciones y variaciones devuelven tres). Los créditos se recargarán cada mes por una suma de 50 en el primer mes y 15 al mes siguiente, o los usuarios pueden comprar créditos adicionales en incrementos de $15.

Aquí hay un gráfico con los detalles:

Créditos de imagen: IA abierta

Los artistas que necesiten asistencia financiera podrán aplicar para acceso subsidiado, dice OpenAI.

El sucesor de DALL-E, DALL-E 2, se anunció en abril y estuvo disponible para un grupo selecto de usuarios a principios de este año, recientemente cruce el umbral de 100.000 usuarios. OpenAI dice que el acceso más amplio fue posible gracias a los nuevos enfoques para mitigar el sesgo y la toxicidad en las generaciones de DALL-E 2, así como a la evolución de las imágenes que rigen las políticas creadas por el sistema.

Un ejemplo de los tipos de imágenes que DALL-E 2 puede generar. Créditos de imagen: IA abierta

Por ejemplo, OpenAI dijo que esta semana implementó una técnica que alienta a DALL-E 2 a generar imágenes de personas que “reflejan con mayor precisión la diversidad de la población mundial” cuando se les presenta una indicación que describe a una persona con una raza o género no especificado. la empresa también dijo que ahora rechaza las cargas de imágenes que contienen rostros realistas e intenta crear la semejanza de figuras públicas, incluidas figuras políticas prominentes y celebridades, al tiempo que mejora la precisión de sus filtros de contenido.

En términos generales, OpenAI no permite que DALL-E 2 se use para crear imágenes que no sean “clasificadas como G” o que puedan “causar daño” (p. ej., imágenes de autolesiones, símbolos de odio o actividades ilegales). Y previamente prohibió el uso de imágenes generadas con fines comerciales. Sin embargo, a partir de hoy, OpenAI otorga a los usuarios “derechos de uso completos” para comercializar las imágenes que crean con DALL-E 2, incluido el derecho a reimprimir, vender y comercializar, incluidas las imágenes que generaron durante la vista previa inicial.

Como lo demuestran los derivados de DALL-E 2 como Craiyon (anteriormente DALL-E mini) y el sin filtrar DALL-E 2 en sí mismo, la IA generadora de imágenes puede detectar muy fácilmente los sesgos y las toxicidades incrustadas en los millones de imágenes de la web utilizadas para entrenarlos. El futurismo pudo inmediato Craiyon para crear imágenes de cruces en llamas y mítines del Ku Klux Klan y descubrió que el sistema hacía suposiciones racistas sobre identidades basadas en nombres que “sonaban étnicos”. Investigadores de OpenAI señalado en un artículo académico que se podría entrenar una implementación de código abierto de DALL-E para hacer asociaciones estereotipadas como generar imágenes de hombres que pasan de blanco en trajes de negocios para términos como “CEO”.

Si bien la versión alojada en OpenAI de DALL-E 2 se entrenó en un conjunto de datos filtrado para eliminar imágenes que contenían contenido claramente violento, sexual o de odio, el filtrado tiene sus límites. Google dijo recientemente que no lanzaría un modelo de generación de IA que desarrolló, Imagen, debido a los riesgos de mal uso. Mientras tanto, Meta tiene acceso limitado a Make-A-Scene, su sistema de generación de imágenes centrado en el arte, para “artistas destacados de IA”.

OpenAI enfatiza que el DALL-E 2 alojado incorpora otras medidas de seguridad que incluyen “sistemas de monitoreo automatizados y humanos” para evitar que cosas como el modelo memoricen las caras que a menudo aparecen en Internet. Aún así, la compañía admite que hay más trabajo por hacer.

“Expandir el acceso es una parte importante de nuestra implementación responsable de sistemas de IA porque nos permite aprender más sobre el uso en el mundo real y continuar iterando en nuestros sistemas de seguridad”, escribió OpenAI en una publicación de blog. “Continuamos investigando cómo los sistemas de IA, como DALL-E, podrían reflejar sesgos en sus datos de entrenamiento y las diferentes formas en que podemos abordarlos”.




Source link