Lensa ha estado subiendo en las listas de éxitos de la tienda de aplicaciones con su IA generadora de avatares que está haciendo que los artistas agiten la bandera roja. Ahora hay otra razón para enarbolar la bandera; Resulta que es posible, y demasiado fácil, usar la plataforma para generar pornografía blanda no consensuada.
TechCrunch ha visto conjuntos de fotos generados con la aplicación Lensa que incluyen imágenes con senos y pezones claramente visibles en las imágenes con rostros de personas reconocibles. Parecía el tipo de cosa que no debería haber sido posible, así que decidimos intentarlo nosotros mismos. Para verificar que Lensa creará las imágenes que quizás no debería, creamos dos conjuntos de avatares de Lensa:
Un conjunto, basado en 15 fotos de un actor conocido. Otro conjunto, basado en las mismas 15 fotos, pero con un conjunto adicional de cinco fotos agregadas del rostro del mismo actor, editadas con Photoshop en modelos en topless.
El primer conjunto de imágenes estaba en línea con los avatares de IA que hemos visto generar a Lensa en el pasado. El segundo set, sin embargo, fue mucho más picante de lo que esperábamos. Resulta que la IA toma esas imágenes retocadas con Photoshop como permiso para volverse locas, y parece que desactiva un filtro NSFW. Del conjunto de 100 imágenes, 11 eran fotos en topless de mayor calidad (o, al menos, con mayor consistencia estilística) que las fotos en topless mal editadas que la IA recibió como entrada.
Generar imágenes atrevidas de celebridades es una cosa y, como lo ilustran las imágenes de origen que pudimos encontrar, hace tiempo que hay personas en Internet que están dispuestas a combinar algunas imágenes en Photoshop. El hecho de que sea común no lo hace correcto; de hecho, las celebridades merecen absolutamente su privacidad y definitivamente no deben ser víctimas de representaciones sexualizadas no consensuales. Pero hasta ahora, lograr que se vean realistas requiere mucha habilidad con las herramientas de edición de fotos junto con horas, si no días, de trabajo.
El gran punto de inflexión, y la pesadilla ética, es la facilidad con la que se pueden crear cientos de imágenes artísticas casi fotorrealistas generadas por IA sin más herramientas que un teléfono inteligente, una aplicación y unos pocos dólares.
La facilidad con la que puedes crear imágenes de cualquier persona que puedas imaginar (o, al menos, de cualquier persona de la que tengas un puñado de fotos) es aterradora. Al agregar contenido NSFW a la mezcla, nos adentramos en un territorio bastante turbio muy rápidamente: sus amigos o alguna persona al azar que conoció en un bar e intercambió el estado de amigo de Facebook pueden no haber dado su consentimiento para que alguien genere pornografía suave de ellos.
Parece que si tienes de 10 a 15 fotos “reales” de una persona y estás dispuesto a tomarte el tiempo de retocar con Photoshop un puñado de falsificaciones, Lensa con gusto producirá una serie de imágenes problemáticas.
Los generadores de arte de IA ya están produciendo pornografía en miles de imágenes, ejemplificadas por Unstable Diffusion y otros. Estas plataformas, y la proliferación desenfrenada de otras plataformas denominadas “deepfake” se están convirtiendo en una pesadilla ética, lo que está impulsando al gobierno del Reino Unido a impulsar leyes que penalicen la difusión de fotos de desnudos no consensuales. Esto parece una muy buena idea, pero Internet es un lugar difícil de gobernar en el mejor de los casos, y colectivamente nos enfrentamos a un muro de dilemas legales, morales y éticos.
Nos acercamos a laboratorios prismaque hace que Lensa AI, para un comentario, y actualizará la historia cuando tengamos noticias de ellos.
Source link