A medida que la IA generativa entra en la corriente principal, la plataforma de financiación colectiva Kickstarter se ha esforzado por formular una política que satisfaga a las partes en todos los lados del debate.
La mayoría de las herramientas generativas de IA que se utilizan para crear arte y texto en la actualidad, incluidas Stable Diffusion y ChatGPT, se entrenaron en imágenes y texto disponibles públicamente en la web. Pero en muchos casos, los artistas, fotógrafos y escritores cuyo contenido se extrajo para la capacitación no recibieron crédito, compensación o la oportunidad de optar por no participar.
Los grupos detrás de estas herramientas de IA argumentan que están protegidas por la doctrina del uso justo, al menos en los EE. UU. Pero los creadores de contenido no necesariamente están de acuerdo, particularmente cuando el contenido generado por IA, o las propias herramientas de IA, se están monetizando.
En un esfuerzo por aportar claridad, Kickstarter anunció hoy que los proyectos en su plataforma que utilicen herramientas de inteligencia artificial para generar imágenes, texto u otros resultados (p. ej., música, voz o audio) deberán divulgar “detalles relevantes” en sus páginas de proyectos en el futuro. Estos detalles deben incluir información sobre cómo el propietario del proyecto planea usar el contenido de IA en su trabajo, así como qué componentes de su proyecto serán totalmente originales y qué elementos se crearán con herramientas de IA.
Créditos de imagen: Pedal de arranque
Además, Kickstarter exige que los nuevos proyectos que involucren el desarrollo de tecnología, herramientas y software de inteligencia artificial detallen información sobre las fuentes de datos de capacitación que el propietario del proyecto pretende utilizar. El propietario del proyecto deberá indicar cómo las fuentes manejan los procesos relacionados con el consentimiento y el crédito, dice Kickstarter, e implementar sus propias “salvaguardas”, como mecanismos de exclusión o aceptación para los creadores de contenido.
Un número cada vez mayor de proveedores de IA ofrecen mecanismos de exclusión voluntaria, pero la regla de divulgación de datos de capacitación de Kickstarter podría resultar polémica, a pesar de los esfuerzos de la Unión Europea y otros para codificar tales prácticas en la ley. OpenAI, entre otros, se ha negado a revelar la fuente exacta de los datos de entrenamiento de sus sistemas más recientes por razones competitivas y posiblemente de responsabilidad legal.
La nueva política de Kickstarter entrará en vigencia el 29 de agosto. Pero la plataforma no planea aplicarla retroactivamente para los proyectos presentados antes de esa fecha, dijo Susannah Page-Katz, directora de confianza y seguridad de Kickstarter.
“Queremos asegurarnos de que cualquier proyecto que se financie a través de Kickstarter incluya aportes creativos humanos y acredite adecuadamente y obtenga permiso para el trabajo de cualquier artista al que haga referencia”, escribió Page-Katz en una publicación de blog compartida con TechCrunch. “La política requiere que los creadores sean transparentes y específicos sobre cómo usan la IA en sus proyectos porque cuando todos estamos en la misma página sobre lo que implica un proyecto, genera confianza y prepara el proyecto para el éxito”.
Para hacer cumplir la nueva política, las presentaciones de proyectos en Kickstarter deberán responder a un nuevo conjunto de preguntas, incluidas varias que se refieren a si su proyecto utiliza tecnología de inteligencia artificial para generar obras de arte y similares, o si el enfoque principal del proyecto es desarrollar tecnología de inteligencia artificial generativa. También se les preguntará si tienen el consentimiento de los propietarios de las obras utilizadas para producir, o entrenar, según sea el caso, partes de su proyecto generadas por IA.
Créditos de imagen: Pedal de arranque
Una vez que los creadores de proyectos de IA envíen su trabajo, pasará por el proceso de moderación humana estándar de Kickstarter. Si se acepta, cualquier componente de IA se etiquetará como tal en una sección “Uso de IA” recientemente agregada en la página del proyecto, dice Page-Katz.
“A lo largo de nuestras conversaciones con los creadores y patrocinadores, lo que más quería nuestra comunidad era transparencia”, agregó, y señaló que cualquier uso de IA que no se divulgue correctamente durante el proceso de envío puede resultar en la suspensión del proyecto. “Nos complace responder directamente a esta llamada de nuestra comunidad agregando una sección a la página del proyecto donde los patrocinadores pueden aprender sobre el uso de la IA en un proyecto en las propias palabras del creador”.
Kickstarter indicó por primera vez que estaba considerando un cambio en la política sobre la IA generativa en diciembre, cuando dijo que reevaluaría si los medios de propiedad o creados por otros en los datos de entrenamiento de un algoritmo constituían una copia o imitación del trabajo de un artista.
Desde entonces, la plataforma se movió a trompicones hacia una nueva política.
Hacia fines del año pasado, Kickstarter prohibió Unstable Diffusion, un grupo que intentaba financiar un proyecto de arte generativo de inteligencia artificial que no incluye filtros de seguridad, lo que permite a los usuarios generar cualquier obra de arte que deseen, incluida la pornografía. Kickstarter justificó la eliminación en parte al dar a entender que el proyecto explotaba comunidades en particular y ponía a las personas en riesgo de sufrir daños.
Más recientemente, Kickstarter aprobó, luego remotoun proyecto que usó IA para plagiar un cómic original, destacando los desafíos en la moderación de trabajos de IA.
Source link