Deep Agency muestra los peligros de aplicar IA a la industria de la moda

Deep Agency muestra los peligros de aplicar IA a la industria de la moda

La IA generativa está alterando las industrias, con una controversia comprensible.

A principios de este mes, Danny Postma, el fundador de Headlime, una startup de copia de marketing impulsada por IA que fue adquirida recientemente por Jasper, anunció Agencia profunda, una plataforma que él describe como un “estudio fotográfico y agencia de modelos con inteligencia artificial”. Mediante el uso de IA generadora de arte, Deep Agency crea y ofrece “modelos virtuales” en alquiler a partir de $ 29 por mes (por tiempo limitado), lo que permite a los clientes colocar los modelos contra fondos digitales para realizar sus sesiones de fotos.

“¿Qué es la Agencia Profunda? Es un estudio fotográfico, con algunas grandes diferencias”, explicó Postma en un serie de tuits. “No Camaras. Sin gente real. Sin ubicación física… ¿Para qué sirve esto? Toneladas de cosas, como la automatización de contenido para personas influyentes en las redes sociales, modelos para anuncios de especialistas en marketing y fotografía de productos de comercio electrónico”.

Deep Agency está en la fase de prueba de concepto, es decir… un poco jodido. Hay muchos artefactos en las caras de los modelos, y la plataforma coloca barandillas, intencionales o no, alrededor de las cuales se pueden generar los físicos. Al mismo tiempo, la creación de modelos de Deep Agency es extrañamente difícil de controlar; intente generar un modelo femenino vestido con un atuendo particular, como el de un oficial de policía, y Deep Agency simplemente no puede hacerlo.

Sin embargo, la reacción al lanzamiento fue rápida y mixta.

Algunos usuarios de Twitter aplaudió la tecnología, expresando su interés en usarla para modelar marcas de ropa y ropa. Otros acusado Postma de perseguir un modelo de negocio “profundamente poco ético”, robando fotografías y semejanzas de otras personas y vendiéndolas para obtener ganancias.

La división refleja el debate más amplio sobre la IA generativa, que continúa atrayendo niveles asombrosos de financiación al tiempo que plantea una serie de cuestiones morales, éticas y legales. De acuerdo a según PitchBook, las inversiones en IA generativa alcanzarán los 42 600 millones de dólares en 2023 y se dispararán a 98 100 millones de dólares en 2026. Sin embargo, empresas como OpenAI, Midjourney y Stability AI están actualmente envueltas en demandas por sus tecnologías de IA generativa, a las que algunos acusan de reproducir las obras de los artistas. sin compensarlos justamente.

Créditos de imagen: Agencia profunda

Deep Agency parece haber tocado un nervio especialmente debido a la aplicación, y las implicaciones, de su producto.

Postma, que no respondió a una solicitud de comentarios, no se avergüenza del hecho de que la plataforma podría competir con, y quizás dañar el sustento de, modelos y fotógrafos del mundo real. Si bien algunas plataformas como Shutterstock han creado fondos para compartir los ingresos del arte generado por IA con los artistas, Deep Agency no ha dado ese paso, y no ha indicado que tenga la intención de hacerlo.

Casualmente, solo unas semanas después del debut de Deep Agency, Levi’s anunció que se asociaría con el estudio de diseño LaLaLand.ai para crear modelos personalizados generados por IA para “aumentar la diversidad de modelos que los compradores pueden ver usando sus productos”. Levi’s enfatizó que planeaba usar modelos sintéticos junto con modelos humanos y que la medida no afectaría sus planes de contratación. Pero planteó preguntas sobre por qué la marca no reclutó a más modelos con las diversas características que busca, dada la dificultad histórica que estos modelos han tenido para encontrar oportunidades en la industria de la moda. (Según uno encuestaa partir de 2016, el 78% de los modelos en los anuncios de moda eran blancos).

En una entrevista por correo electrónico con TechCrunch, Os Keyes, candidato a doctorado en la Universidad de Washington que estudia IA ética, hizo la observación de que el modelado y la fotografía, y las artes en general, son áreas particularmente vulnerables a la IA generativa porque los fotógrafos y artistas carecen de estructura. fuerza. En su mayoría son contratistas independientes mal pagados de grandes empresas que buscan reducir costos, señala Keyes. Los modelos, por ejemplo, a menudo son en el gancho por altas comisiones de agencia (~20 %), así como gastos comerciales, que pueden incluir boletos de avión, alojamiento grupal y los materiales promocionales necesarios para conseguir trabajo con los clientes.

“La aplicación de Postma está, si funciona, de hecho diseñada para quitarles la silla de encima a los trabajadores creativos ya precarios y, en cambio, enviar el dinero a Postma”, dijo Keyes. “Eso no es realmente algo para aplaudir, pero tampoco es tremendamente sorprendente… El hecho es que, desde el punto de vista socioeconómico, herramientas como esta están diseñadas para extraer y concentrar aún más las ganancias”.

Otros críticos están en desacuerdo con la tecnología subyacente. Los sistemas de generación de imágenes de última generación, como el tipo que usa Deep Agency, son lo que se conoce como “modelos de difusión”, que aprenden a crear imágenes a partir de indicaciones de texto (por ejemplo, “un boceto de un pájaro posado en el alféizar de una ventana”) a medida que se abren camino a través de datos de entrenamiento extraídos de la web. Lo que está en juego en la mente de los artistas es la tendencia de los modelos de difusión de copiar y pegar imágenes, incluido el contenido con derechos de autor, de los datos que se usaron para entrenarlos.

Créditos de imagen: Agencia profunda

Las empresas que comercializan modelos de difusión han afirmado durante mucho tiempo que el “uso justo” los protege en caso de que sus sistemas hayan sido entrenados en contenido con licencia. (Consagrado en la ley de EE. UU., la doctrina del uso justo permite el uso limitado de material protegido por derechos de autor sin tener que obtener primero el permiso del titular de los derechos). Pero los artistas alegan que los modelos infringen sus derechos, en parte porque los datos de entrenamiento se obtuvieron sin su autorización o consentimiento. .

“La legalidad de una startup como esta no está del todo clara, pero lo que sí está claro es que su objetivo es dejar sin trabajo a mucha gente”, dijo Mike Cook, experto en ética de la IA y miembro del grupo de investigación abierto Knives and Paintbrushes. le dijo a TechCrunch en una entrevista por correo electrónico. “Es difícil hablar sobre la ética de herramientas como esta sin abordar cuestiones más profundas relacionadas con la economía, el capitalismo y los negocios”.

No existe un mecanismo para que los artistas que sospechan que su arte se usó para entrenar el modelo de Deep Agency eliminen ese arte del conjunto de datos de entrenamiento. Esa es peor que las plataformas como DeviantArt y Stability AI, que brindan formas para que los artistas opten por no contribuir con arte para entrenar la IA que genera arte.

Deep Agency tampoco ha dicho si considerará establecer una participación en los ingresos para los artistas y otras personas cuyo trabajo ayudó a crear el modelo de la plataforma. Otros proveedores, como Shutterstock, están experimentando con esto, recurriendo a un grupo combinado para reembolsar a los creadores cuyo trabajo se utiliza para entrenar modelos de arte de IA.

Cook señala otro tema: la privacidad de los datos.

Deep Agency ofrece a los clientes una forma de crear un modelo de “gemelo digital” cargando alrededor de 20 imágenes de una persona en varias poses. Pero cargar fotos en Deep Agency también las agrega a los datos de entrenamiento para los modelos de nivel superior de la plataforma, a menos que los usuarios las eliminen explícitamente después, como se describe en los términos del acuerdo de servicio.

La política de privacidad de Deep Agency no dice exactamente cómo maneja la plataforma las fotos subidas por los usuarios, de hecho, ni siquiera dónde las almacena. Y aparentemente no hay forma de evitar que los actores deshonestos creen un gemelo virtual de alguien sin su permiso, un temor legítimo a la luz de los modelos de desnudos falsos profundos no consensuales que se han utilizado para crear modelos como Stable Diffusion.

Créditos de imagen: Agencia profunda

“Sus términos de uso en realidad establecen que ‘Usted comprende y reconoce que otras personas pueden crear generaciones similares o idénticas usando sus propias indicaciones’. Esto es bastante divertido para mí porque la premisa del producto es que todos pueden tener modelos de IA personalizados que son únicos cada vez”, dijo Cook. “En realidad, reconocen la posibilidad de que puedas obtener exactamente la misma imagen que otra persona obtuvo, y que tus fotos también se envían a otros para su posible uso. No puedo imaginar que a muchas grandes empresas les guste la perspectiva de cualquiera de estas cosas”.

Otro problema con los datos de entrenamiento de Deep Agency es la falta de transparencia en torno al conjunto original, dice Keyes. Es decir, no está claro en qué imágenes se entrenó el modelo que impulsa Deep Agency (aunque el marcas de agua desordenadas en sus imágenes dan pistas), lo que deja abierta la posibilidad de un sesgo algorítmico.

Un cuerpo creciente de investigación ha descubierto estereotipos raciales, étnicos, de género y de otro tipo en la IA que genera imágenes, incluido en el popular modelo Stable Diffusion desarrollado con el apoyo de Stability AI. Apenas este mes, los investigadores de la startup de IA Hugging Face y la Universidad de Leipzig publicaron un herramienta demostrando que los modelos que incluyen Stable Diffusion y OpenAI’s DALL-E 2 tienden a producir imágenes de personas que parecen blancas y masculinas, especialmente cuando se les pide que representen a personas en posiciones de autoridad.

De acuerdo a Para Chloe Xiang de Vice, Deep Agency solo genera imágenes de mujeres a menos que compre una suscripción paga, un sesgo problemático desde el principio. Además, escribe Xiang, la plataforma tiende a inclinarse hacia la creación de modelos femeninos blancos y rubios, incluso si selecciona una imagen de una mujer de una raza o parecido diferente en el catálogo generado previamente. Cambiar la apariencia de un modelo requiere hacer ajustes adicionales, no tan obvios.

“La IA generadora de imágenes es fundamentalmente defectuosa porque depende de la representatividad de los datos en los que se entrenó la IA generadora de imágenes”, dijo Keyes. “Si incluye predominantemente a personas blancas, asiáticas y negras de piel clara, toda la síntesis del mundo no proporcionará representación para las personas de piel más oscura”.

A pesar de los problemas evidentes con Deep Agency, Cook no cree que ni herramientas similares desaparezcan pronto. Simplemente hay demasiado dinero en el espacio, dice, y no está equivocado. Más allá de Deep Agency y LaLaLand.ai, nuevas empresas como ZMO.ai y Surreal están asegurando grandes inversiones de capital de riesgo para tecnología que genera modelos de moda virtuales, maldita sea la ética.

“Las herramientas aún no son lo suficientemente buenas, como puede ver cualquiera que use la versión beta de Deep Agency. Pero es solo cuestión de tiempo”, dijo Cook. “Los empresarios y los inversores seguirán golpeándose la cabeza con oportunidades como esta hasta que encuentren la manera de hacer que una de ellas funcione”.




Source link