Kickstarter cerró la campaña para el grupo de pornografía AI Unstable Diffusion en medio de pautas cambiantes

Kickstarter cerró la campaña para el grupo de pornografía AI Unstable Diffusion en medio de pautas cambiantes

El grupo que trata de monetizar la generación de pornografía con IA, Unstable Diffusion, recaudó más de $56,000 en Kickstarter de 867 patrocinadores. Ahora, como Kickstarter cambia su forma de pensar sobre qué tipo de proyectos basados ​​en IA permitirá, la plataforma de crowdfunding ha cerrado la campaña de Unstable Diffusion. Dado que Kickstarter ejecuta un modelo de todo o nada y la campaña aún no había concluido, todo el dinero recaudado por Unstable Diffusion se devolverá a los patrocinadores. En otras palabras, Unstable Diffusion no verá esos $56,000, que más que duplicaron su objetivo inicial de $25,000.

“Durante los últimos días, hemos contactado a nuestro Consejo Asesor Comunitario y hemos leído sus comentarios a través de nuestro equipo y las redes sociales”, dijo el director ejecutivo Everette Taylor en un entrada en el blog. “Y una cosa está clara: Kickstarter debe y siempre estará del lado del trabajo creativo y de los humanos detrás de ese trabajo. Estamos aquí para ayudar a que el trabajo creativo prospere”.

El nuevo enfoque de Kickstarter para albergar proyectos de IA es intencionalmente vago.

“Esta tecnología es realmente nueva y no tenemos todas las respuestas”, escribió Taylor. “Es posible que las decisiones que tomemos ahora no sean las que tomemos en el futuro, por lo que queremos que esta sea una conversación continua con todos ustedes”.

En este momento, la plataforma dice que está considerando cómo los proyectos interactúan con material protegido por derechos de autor, especialmente cuando el trabajo de los artistas aparece en los datos de entrenamiento de un algoritmo sin consentimiento. Kickstarter también considerará si el proyecto “explotará una comunidad en particular o pondrá a alguien en riesgo de sufrir daños”.

En los últimos meses, herramientas como ChatGPT de OpenAI y Stable Diffusion de Stability AI han tenido un gran éxito, lo que ha llevado las conversaciones sobre la ética de las obras de arte de IA al frente del debate público. Si aplicaciones como Lensa AI pueden aprovechar el Stable Diffusion de código abierto para crear instantáneamente avatares artísticos que parecen el trabajo de un artista profesional, ¿cómo impacta eso a esos mismos artistas en activo?

Algunos artistas recurrieron a Twitter para presionar a Kickstarter para que abandonara el proyecto Unstable Diffusion, citando preocupaciones sobre cómo los generadores de arte de IA pueden amenazar las carreras de los artistas.

Él @Pedal de arranque Entonces, ¿vas a dejar que un proyecto de IA tenga como premisa principal generar pornografía (potencialmente no consensuada) y el principal argumento de venta es que la gente puede robarle a Greg Rutkowski? ¿O vas a hacer algo para proteger a los creadores y al público?https://t.co/26nTl4dTNM

— Karla Ortiz 🐀 (@kortizart) 10 de diciembre de 2022

Avergonzado @Pedal de arranque por permitir el crowdfund de Unstable Diffusion. Está habilitando el robo flagrante y financiando una herramienta que puede crear contenido abusivo, como la pornografía no consentida.

— Sarah Andersen (@SarahCAndersen) 11 de diciembre de 2022

Muchos citan el destino de El trabajo de Greg Rutkowski como ejemplo de lo que puede salir mal. Un ilustrador vivo que ha creado obras de arte detalladas y de alta fantasía para franquicias como “Dungeons & Dragons”, el nombre de Rutkowski fue uno de los términos de búsqueda más populares de Stable Diffusion cuando se lanzó en septiembre, lo que permite a los usuarios replicar fácilmente su estilo distintivo. Rutkowski nunca dio su consentimiento para que su obra de arte se usara para entrenar el algoritmo, lo que lo llevó a convertirse en un defensor vocal de cómo los generadores de arte de IA impactan a los artistas que trabajan.

“Con $25,000 en fondos, podemos permitirnos entrenar el nuevo modelo con 75 millones de imágenes de alta calidad que consisten en ~25 millones de imágenes de anime y cosplay, ~25 millones de imágenes artísticas de Artstation/DeviantArt/Behance y ~25 millones de fotografías”. Unstable Diffusion escribió en su Pedal de arranque.

Desoveun conjunto de herramientas de inteligencia artificial diseñadas para ayudar a los artistas, desarrolló un sitio web llamado ¿He sido entrenado?, que permite a los artistas ver si su trabajo aparece en conjuntos de datos populares y darse de baja. Según un caso judicial de abril, existe un precedente legal para defender el raspado de datos de acceso público.

Problemas inherentes en la generación de pornografía con IA

Las preguntas éticas sobre el arte de la IA se vuelven aún más turbias cuando se consideran proyectos como Unstable Diffusion, que se centran en el desarrollo de contenido NSFW.

Stable Diffusion utiliza un conjunto de datos de 2300 millones de imágenes para entrenar su generador de texto a imagen. Pero solo un 2.9% estimado del conjunto de datos contiene Material NSFW, lo que le da al modelo poco para continuar cuando se trata de contenido explícito. Ahí es donde entra Unstable Diffusion. El proyecto, que es parte de Equilibrium AI, reclutó voluntarios de su servidor Discord para desarrollar conjuntos de datos pornográficos más sólidos para ajustar su algoritmo, de la misma manera que subiría más fotos de sofás y sillas a un conjunto de datos si desea crear una IA de generación de muebles.

Pero cualquier generador de IA es propenso a ser víctima de cualquier sesgo que tengan los humanos detrás del algoritmo. Gran parte de la pornografía que es gratuita y de fácil acceso en línea se desarrolla para la mirada masculina, lo que significa que es probable que la IA escupa, especialmente si ese es el tipo de imágenes que los usuarios ingresan en el conjunto de datos.

En su Kickstarter ahora suspendido, Unstable Diffusion dijo que trabajaría para crear un modelo de arte de IA que pueda “manejar mejor la anatomía humana, generar estilos artísticos diversos y controlables, representar conceptos poco entrenados como LGBTQ y razas y géneros de manera más justa. ”

Además, no hay forma de verificar si gran parte de la pornografía que está disponible gratuitamente en Internet se hizo de manera consensuada (sin embargo, los creadores adultos que usan plataformas pagas como OnlyFans y ManyVids deben verificar su edad e identidad antes de usar estos servicios). Incluso entonces, si un modelo consiente en aparecer en pornografía, eso no significa que consienta en que sus imágenes se utilicen para entrenar una IA. Si bien esta tecnología puede crear imágenes asombrosamente realistas, eso también significa que puede usarse como arma para hacer pornografía falsa no consentida.

Actualmente, pocas leyes en todo el mundo se refieren a la pornografía falsificada no consentida. En los EE. UU., solo Virginia y California tienen regulaciones que restringen ciertos usos de medios pornográficos falsificados y falsificados.

“Un aspecto que me preocupa particularmente es el impacto dispar que la pornografía generada por IA tiene en las mujeres”, dijo Ravit Dotan, vicepresidente de IA responsable en Mission Control, a TechCrunch el mes pasado. “Por ejemplo, una aplicación anterior basada en IA que puede ‘desvestir’ a las personas solo funciona con mujeres”.

Unstable Diffusion no respondió a la solicitud de comentarios en el momento de la publicación.




Source link