La IA está mejorando en la generación de pornografía.  Puede que no estemos preparados para las consecuencias.

La IA está mejorando en la generación de pornografía. Puede que no estemos preparados para las consecuencias.

by

in

Una mujer pelirroja se encuentra en la luna, con el rostro oscurecido. Su cuerpo desnudo parece pertenecer a un póster que encontrarías en la pared de la habitación de un adolescente hormonal, es decir, hasta que llegas a su torso, donde tres brazos salen de sus hombros.

Las marcas y los artistas han utilizado sistemas impulsados ​​​​por IA como Stable Diffusion, que traducen mensajes de texto en imágenes, para crear imágenes conceptuales, galardonadas (aunque controversial) impresos y campañas de marketing en toda regla.

Pero algunos usuarios, con la intención de explorar el lado más turbio de los sistemas, los han estado probando para un caso de uso diferente: la pornografía.

La pornografía con IA es tan inquietante e imperfecta como cabría esperar (es probable que esa pelirroja en la luna no haya sido generada por alguien con un fetiche adicional por los brazos). Pero a medida que la tecnología continúa mejorando, suscitará preguntas desafiantes tanto para los expertos en ética de la IA como para los trabajadores sexuales.

La pornografía creada con los últimos sistemas de generación de imágenes llegó por primera vez a la escena a través de los foros de discusión 4chan y Reddit a principios de este mes, luego de que un miembro de 4chan filtrara el sistema de difusión estable de código abierto antes de su lanzamiento oficial. Luego, la semana pasada, se lanzó lo que parece ser uno de los primeros sitios web dedicados a la generación de pornografía AI de alta fidelidad.

Llamado Porn Pen, el sitio web permite a los usuarios personalizar la apariencia de modelos desnudos generados por IA, todos los cuales son mujeres, usando etiquetas alternables como “nena”, “modelo de lencería”, “gordita”, etnias (por ejemplo, “rusa” y ” Latina”) y fondos (por ejemplo, “dormitorio”, “ducha” y comodines como “luna”). Los botones capturan modelos desde el frente, la parte posterior o el costado y cambian la apariencia de la foto generada (p. ej., “foto de película”, “selfie en espejo”). Sin embargo, debe haber un error en las selfies del espejo, porque en la fuente de imágenes generadas por el usuario, algunos espejos en realidad no reflejan a una persona, pero, por supuesto, estos modelos no son personas en absoluto. La pluma porno funciona como “Esta persona no existe”, solo que es NSFW.

Sobre las noticias de hackers de Y Combinator foro, un usuario que pretende ser el creador describe a Porn Pen como un “experimento” que utiliza modelos de texto a imagen de última generación. “Eliminé explícitamente la capacidad de especificar texto personalizado para evitar que se generen imágenes dañinas”, escribieron. “Se agregarán nuevas etiquetas una vez que el algoritmo de ingeniería rápida se ajuste aún más”. El creador no respondió a la solicitud de comentarios de TechCrunch.

Pero Porn Pen plantea una serie de cuestiones éticas, como los sesgos en los sistemas de generación de imágenes y las fuentes de los datos de los que surgieron. Más allá de las implicaciones técnicas, uno se pregunta si la nueva tecnología para crear pornografía personalizada, suponiendo que se imponga, podría perjudicar a los creadores de contenido para adultos que se ganan la vida haciendo lo mismo.

“Creo que es algo inevitable que esto llegue a existir cuando [OpenAI’s] DALL-E lo hizo”, dijo Os Keyes, candidato a doctorado en la Universidad de Seattle, a TechCrunch por correo electrónico. “Pero sigue siendo deprimente cómo tanto las opciones como los valores predeterminados replican una mirada muy heteronormativa y masculina”.

Ashley, una trabajadora sexual y organizadora de pares que trabaja en casos relacionados con la moderación de contenido, cree que el contenido generado por Porn Pen no es una amenaza para las trabajadoras sexuales en su estado actual.

“Hay un sinfín de medios por ahí”, dijo Ashley, quien no quería que se publicara su apellido por temor a ser acosada por su trabajo. “Pero las personas se diferencian no solo por hacer los mejores medios, sino también por ser una persona accesible e interesante. Pasará mucho tiempo antes de que la IA pueda reemplazar eso”.

En los sitios de pornografía monetizables existentes como OnlyFans y ManyVids, los creadores adultos deben verificar su edad e identidad para que la empresa sepa que son adultos que dan su consentimiento. Los modelos pornográficos generados por IA no pueden hacer esto, por supuesto, porque no son reales.

Sin embargo, a Ashley le preocupa que si los sitios de pornografía toman medidas enérgicas contra la pornografía de IA, podría generar restricciones más severas para las trabajadoras sexuales, que ya enfrentan una mayor regulación de la legislación como SESTA/FOSTA. El Congreso presentó la Ley de estudio de trabajadoras sexuales seguras en 2019 para examinar los efectos de esta legislación, que dificulta el trabajo sexual en línea. Este estudio encontró que “las organizaciones comunitarias [had] informó un aumento de la falta de vivienda de las trabajadoras sexuales” después de perder la “estabilidad económica proporcionada por el acceso a las plataformas en línea”.

“SESTA se vendió como una lucha contra el tráfico sexual de niños, pero creó una nueva ley penal sobre la prostitución que no tenía nada que ver con la edad”, dijo Ashley.

Actualmente, pocas leyes en todo el mundo se refieren a la pornografía falsificada. En los EE. UU., solo Virginia y California tienen regulaciones que restringen ciertos usos de medios pornográficos falsificados y falsificados.

Sistemas como Stable Diffusion “aprenden” a generar imágenes a partir de texto con el ejemplo. Alimentados con miles de millones de imágenes etiquetadas con anotaciones que indican su contenido, por ejemplo, una imagen de un perro con la etiqueta “Dachshund, lente gran angular”, los sistemas aprenden que palabras y frases específicas se refieren a estilos artísticos, estéticas, ubicaciones, etc. .

Esto funciona relativamente bien en la práctica. Un aviso como “un pájaro pintando al estilo de Van Gogh” predeciblemente producirá una imagen al estilo de Van Gogh que representa un pájaro. Pero se vuelve más complicado cuando las indicaciones son más vagas, se refieren a estereotipos o tratan temas con los que los sistemas no están familiarizados.

Por ejemplo, Porn Pen a veces genera imágenes sin una persona en absoluto, presumiblemente una falla del sistema para comprender el aviso. Otras veces, como se mencionó anteriormente, muestra modelos físicamente improbables, generalmente con extremidades adicionales, pezones en lugares inusuales y carne retorcida.

“Por definición [these systems are] va a representar a aquellos cuyos cuerpos son aceptados y valorados en la sociedad en general”, dijo Keyes, y señaló que Porn Pen solo tiene categorías para personas cisnormativas. “No me sorprende que termines con un número desproporcionadamente alto de mujeres, por ejemplo”.

Si bien Stable Diffusion, uno de los sistemas que probablemente respaldan a Porn Pen, ha relativamente pocas imágenes “NSFW” en su conjunto de datos de entrenamiento, los primeros experimentos de usuarios de Redditors y 4chan muestran que es bastante competente en la generación de deepfakes pornográficos de celebridades (Porn Pen, quizás no por coincidencia, tiene una opción de “celebridad”). Y debido a que es de código abierto, no habría nada que impidiera que el creador de Porn Pen ajustara el sistema en imágenes de desnudos adicionales.

“Definitivamente no es genial generar [porn] de una persona existente”, dijo Ashley. “Se puede usar para acosarlos”.

La pornografía deepfake a menudo se crea para amenazar y acosar a las personas. Estas imágenes casi siempre se revelan sin el consentimiento del sujeto fuera de malas intenciones. En 2019, la empresa de investigación Sensibilidad IA descubrió que el 96% de los videos deepfake en línea eran pornografía no consentida.

Mike Cook, un investigador de inteligencia artificial que forma parte del colectivo Knives and Paintbrushes, dice que existe la posibilidad de que el conjunto de datos incluya a personas que no han dado su consentimiento para que su imagen se use para capacitaciones de esta manera, incluidas las trabajadoras sexuales.

“Muchos de [the people in the nudes in the training data] pueden obtener sus ingresos de la producción de pornografía o contenido relacionado con la pornografía”, dijo Cook. “Al igual que los artistas plásticos, los músicos o los periodistas, las obras que han producido estas personas se utilizan para crear sistemas que también socavan su capacidad para ganarse la vida en el futuro”.

En teoría, un actor porno podría usar las protecciones de derechos de autor, la difamación y potencialmente incluso las leyes de derechos humanos para luchar contra el creador de una imagen falsa. Pero como señala un artículo de MIT Technology Review, recopilar evidencia en apoyo del argumento legal puede resultar ser un gran desafío.

Cuando las herramientas de inteligencia artificial más primitivas popularizaron la pornografía falsa hace varios años, Wired investigación descubrió que los videos falsos profundos no consensuados estaban acumulando millones de visitas en los principales sitios de pornografía como Pornhub. Otros trabajos deepfakes encontraron un hogar en sitios similares a Porn Pen: según los datos de Sensity, los cuatro principales sitios web de pornografía deepfake recibieron más de 134 millones de visitas en 2018.

“La síntesis de imágenes de IA es ahora una tecnología generalizada y accesible, y no creo que nadie esté realmente preparado para las implicaciones de esta ubicuidad”, continuó Cook. “En mi opinión, nos hemos adentrado muy, muy lejos en lo desconocido en los últimos años sin tener en cuenta el impacto de esta tecnología”.

Al punto de Cook, uno de los más popular Los sitios de pornografía generada por IA se expandieron a fines del año pasado a través de acuerdos de socios, referencias y una API, lo que permitió que el servicio, que alberga cientos de deepfakes no consensuados, sobreviviera a las prohibiciones en su infraestructura de pagos. Y en 2020, los investigadores descubierto un bot de Telegram que generó imágenes falsas abusivas de más de 100.000 mujeres, incluidas niñas menores de edad.

“Creo que veremos a muchas más personas probando los límites de la tecnología y los límites de la sociedad en la próxima década”, dijo Cook. “Debemos aceptar cierta responsabilidad por esto y trabajar para educar a las personas sobre las ramificaciones de lo que están haciendo”.


Source link