OpenAI comienza a permitir a los usuarios editar caras con DALL-E 2

OpenAI elimina la lista de espera para DALL-E 2, lo que permite que cualquiera se registre

Varios meses después de que DALL-E 2 estuviera disponible en una versión beta limitada, OpenAI eliminó hoy la lista de espera para el sistema de generación de imágenes impulsado por IA (que permanece en versión beta), lo que permite que cualquier persona se registre y comience a usarlo. El precio seguirá siendo el mismo, y los usuarios primerizos obtendrán una cantidad finita de créditos que pueden destinarse a generar o editar una imagen o crear una variación de las imágenes existentes.

“Más de 1,5 millones de usuarios ahora están creando activamente más de 2 millones de imágenes al día con DALL-E, desde artistas y directores creativos hasta autores y arquitectos, con alrededor de 100 000 usuarios compartiendo sus creaciones y comentarios en nuestra comunidad de Discord”, escribió OpenAI en un entrada en el blog. “Aprender del uso en el mundo real nos ha permitido mejorar nuestros sistemas de seguridad, haciendo posible una disponibilidad más amplia en la actualidad”.

OpenAI aún tiene que hacer que DALL-E 2 esté disponible a través de una API, aunque la compañía señala en el entrada en el blog ese está en pruebas. Marcas como Stitch Fix, Nestlé y Heinz han probado DALL-E 2 para campañas publicitarias y otros casos de uso comercial, pero hasta ahora solo de manera ad hoc.

Como hemos escrito anteriormente, el ciclo de lanzamiento conservador de OpenAI parece tener la intención de subvertir la controversia que crece en torno a Stable Diffusion de Stability AI, un sistema de generación de imágenes que está disponible en un formato de código abierto sin restricciones. Stable Diffusion se envía con mecanismos de seguridad opcionales. Pero el sistema ha sido utilizado por algunos para crear contenido objetable, como violencia gráfica y falsificaciones profundas de celebridades pornográficas y no consensuales.

Stability AI, que ya ofrece una API de difusión estable, aunque con restricciones en ciertas categorías de contenido, fue el tema de una carta reciente y crítica de la representante de la Cámara de Representantes de EE. UU. Anna G. Eshoo (D-CA) al Asesor de Seguridad Nacional (NSA) y el Oficina de Política Científica y Tecnológica (OSTP). En él, instó a la NSA y OSTP a abordar el lanzamiento de “modelos de IA inseguros” que “no moderan el contenido creado en sus plataformas”.

Botellas Heinz como “imaginadas” por DALL-E 2. Créditos de imagen: Heinz

“Soy un defensor de la democratización del acceso a la IA y creo que no debemos permitir que aquellos que publican abiertamente modelos inseguros en Internet se beneficien de su descuido”, escribió Eshoo. “Las herramientas de doble uso que pueden provocar daños en el mundo real, como la generación de pornografía infantil, información errónea y desinformación, deben regirse de manera adecuada”.

De hecho, mientras marchan hacia la ubicuidad, innumerables ético y cuestiones legales rodean sistemas como DALL-E 2, Midjourney y Stable Diffusion. A principios de este mes, Getty Images prohibido la carga y venta de ilustraciones generadas con DALL-E 2, Stable Diffusion y otras herramientas similares, siguiendo decisiones similares de sitios como Newgrounds, PurplePort y FurAffinity. El CEO de Getty Images, Craig Peters, le dijo a The Verge que la prohibición fue provocada por preocupaciones sobre “problemas correctos no abordados”, ya que los conjuntos de datos de capacitación para sistemas como DALL-E 2 contienen imágenes con derechos de autor extraídas de la web.

Los datos de entrenamiento también presentan un riesgo de privacidad, ya que Ars Technica reporte destacada la semana pasada. Los registros médicos privados, posiblemente miles, se encuentran entre las muchas fotos ocultas dentro del conjunto de datos utilizado para entrenar Stable Diffusion, según el artículo. Eliminar estos registros es excepcionalmente difícil, ya que LAION no es una colección de archivos en sí misma, sino simplemente un conjunto de URL que apuntan a imágenes en la web.

En respuesta, tecnólogos como Mat Dryhurst y Holly Herndon están encabezando esfuerzos como Source+, un estándar que tiene como objetivo permitir que las personas no permitan que su trabajo o imagen se use con fines de capacitación en IA. Pero estos estándares son, y probablemente seguirán siendo, voluntarios, lo que limita su impacto potencial.

Experimentos con DALL-E 2 para diferentes visualizaciones de productos. Créditos de imagen: eric silberstein

OpenAI ha afirmado en repetidas ocasiones que ha tomado medidas para mitigar los problemas relacionados con DALL-E 2, incluido el rechazo de las cargas de imágenes que contienen rostros realistas y los intentos de crear la semejanza de figuras públicas, como figuras políticas prominentes y celebridades. La compañía también dice que entrenó a DALL-E 2 en un conjunto de datos filtrado para eliminar imágenes que contenían contenido obviamente violento, sexual o de odio. Y OpenAI dice que emplea una combinación de sistemas de monitoreo automatizados y humanos para evitar que el sistema genere contenido que viole sus términos de servicio.

“En los últimos meses, hemos hecho que nuestros filtros sean más sólidos para rechazar los intentos de generar contenido sexual, violento y de otro tipo que viole nuestra política de contenido, y hemos desarrollado nuevas técnicas de detección y respuesta para detener el uso indebido”, escribió la compañía en la publicación del blog. Este Dia. “La escalabilidad responsable de un sistema tan poderoso y complejo como DALL-E, mientras se aprende sobre todas las formas creativas en que se puede usar y maltratar, ha requerido un enfoque de implementación iterativo”.


Source link