Ícono del sitio La Neta Neta

Europa quiere plataformas para etiquetar el contenido generado por IA para luchar contra la desinformación

Europa quiere plataformas para etiquetar el contenido generado por IA para luchar contra la desinformación

La Unión Europea se apoya en los signatarios de su Código de prácticas sobre desinformación en línea para etiquetar los deepfakes y otros contenidos generados por IA.

En comentarios de ayer luego de una reunión con los más de 40 signatarios del Código, la comisionada de valores y transparencia de la UE, Vera Jourova, dijo que aquellos que se suscribieron para combatir la desinformación deberían implementar tecnología para reconocer el contenido de IA y etiquetarlo claramente para los usuarios.

“Las nuevas tecnologías de IA pueden ser una fuerza para el bien y ofrecer nuevas vías para una mayor eficiencia y expresión creativa. Pero, como siempre, tenemos que mencionar el lado oscuro de este asunto y también presentan nuevos riesgos y el potencial de consecuencias negativas para la sociedad”, advirtió. “También cuando se trata de la creación y difusión de desinformación.

“Los chatbots avanzados como ChatGPT son capaces de crear contenido y elementos visuales complejos y aparentemente bien fundamentados en cuestión de segundos. Los generadores de imágenes pueden crear imágenes auténticas de eventos que nunca ocurrieron. El software de generación de voz puede imitar la voz de una persona basándose en una muestra de unos pocos segundos. Las nuevas tecnologías plantean nuevos desafíos también para la lucha contra la desinformación. Así que hoy les pedí a los signatarios que crearan una pista dedicada y separada dentro del código para discutirlo”.

“Cuando se trata de la producción de IA, no veo ningún derecho para que las máquinas tengan libertad de expresión.

Los signatarios del Código de prácticas de la UE contra la desinformación deben implementar tecnología para reconocer el contenido de IA y etiquetarlo claramente para los usuarios”.

– Vicepresidente @VeraJourova pic.twitter.com/yLVp79bqEH

— Comisión Europea (@EU_Commission) 5 de junio de 2023

La versión actual del Código, que la UE reforzó el verano pasado, cuando también confirmó que tiene la intención de que el instrumento voluntario se convierta en una medida de mitigación que cuente para el cumplimiento de la Ley de Servicios Digitales (DSA) (jurídicamente vinculante), actualmente no compromete para identificar y etiquetar deepfakes. Pero la Comisión espera cambiar eso.

El comisionado de la UE dijo que ve dos ángulos de discusión principales sobre cómo incluir medidas de mitigación para el contenido generado por IA en el Código: uno se centraría en los servicios que integran IA generativa, como New Bing de Microsoft o los servicios de búsqueda aumentados por IA Bard de Google, que debe comprometerse a incorporar “las garantías necesarias para que estos servicios no puedan ser utilizados por actores malintencionados para generar desinformación”.

Un segundo comprometería a los signatarios que tienen servicios con potencial para difundir desinformación generada por IA para implementar “tecnología para reconocer dicho contenido y etiquetarlo claramente para los usuarios”.

Jourova dijo que había hablado con Sundar Pichai de Google y le dijeron que Google tiene tecnología que puede detectar contenido de texto generado por IA, pero también que continúa desarrollando la tecnología para mejorar sus capacidades.

En comentarios adicionales durante una sesión de preguntas y respuestas de prensa, la comisionada dijo que la UE quiere que las etiquetas para deepfakes y otro contenido generado por IA sean claras y rápidas, para que los usuarios normales puedan comprender de inmediato que una parte del contenido que se les presenta tiene creado por una máquina, no por una persona.

También especificó que la Comisión quiere que las plataformas implementen el etiquetado ahora, “inmediatamente”.

La DSA incluye algunas disposiciones que requieren plataformas en línea muy grandes (VLOP) para etiquetar audio e imágenes manipuladas, pero Jourova dijo que la idea de agregar etiquetas al Código de desinformación es que puede suceder incluso antes de la fecha límite de cumplimiento del 25 de agosto para VLOP bajo la DSA. .

“Dije muchas veces que tenemos la tarea principal de proteger la libertad de expresión. Pero cuando se trata de la producción de IA, no veo ningún derecho a que las máquinas tengan libertad de expresión. Y así, esto también está volviendo a los viejos buenos pilares de nuestra ley. Y es por eso que queremos trabajar más en eso también bajo el Código de Práctica sobre la base de esta idea tan fundamental”, agregó.

La Comisión también espera que se tomen medidas para informar sobre los riesgos de desinformación generados por la IA el próximo mes; Jourova dijo que los signatarios relevantes deberían usar los informes de julio para “informar al público sobre las salvaguardas que están implementando para evitar el uso indebido de la IA generativa para difundir desinformación”.

El Código de desinformación ahora tiene 44 signatarios en total, que incluye gigantes tecnológicos como Google, Facebook y Microsoft, así como entidades de tecnología publicitaria más pequeñas y organizaciones de la sociedad civil, un recuento superior a los 34 que habían firmado los compromisos a junio de 2022.

Sin embargo, a fines del mes pasado, Twitter tomó la medida inusual de retirarse del Código voluntario de la UE.

Otros grandes problemas que Jourova señaló que había planteado con los signatarios restantes en la reunión de ayer, instándolos a tomar más medidas, incluían la propaganda de guerra de Rusia y la desinformación pro-Kremlin; la necesidad de moderación y verificación de hechos “consistentes”; esfuerzos en seguridad electoral; y el acceso a los datos para los investigadores.

“Todavía hay demasiado contenido de desinformación peligroso que circula en las plataformas y muy poca capacidad”, advirtió, y destacó una queja de larga data de la Comisión de que las iniciativas de verificación de hechos no se aplican de manera integral en el contenido dirigido a todos los idiomas que se hablan en la UE. Estados miembros, incluidas las naciones más pequeñas.

“Especialmente los países del centro y este de Europa están bajo ataque permanente de fuentes de desinformación especialmente rusas”, agregó. “Hay mucho por hacer. Se trata de capacidades, se trata de nuestro conocimiento, se trata de nuestra comprensión del idioma. Y también comprensión de las razones por las que en algunos Estados miembros existe el caldo de cultivo o el suelo preparado para la absorción de gran parte de la desinformación”.

El acceso para los investigadores aún es insuficiente, también enfatizó, instando a las plataformas a intensificar sus esfuerzos en datos para la investigación.

Jourova también agregó algunas palabras de advertencia sobre el camino elegido por Elon Musk, lo que sugiere que Twitter se ha puesto en la mira de la aplicación de la UE, como un VLOP designado bajo la DSA.

La DSA establece un requisito legal para que los VLOP evalúen y mitiguen los riesgos sociales como la desinformación, por lo que Twitter está invitando a la censura y la sanción dando la vuelta al código de la UE (las multas en virtud de la DSA pueden escalar hasta el 6 % de la facturación anual mundial).

“A partir de agosto de este año, nuestras estructuras, que desempeñarán el papel de ejecutores de la DSA, analizarán el desempeño de Twitter para ver si cumplen, si están tomando las medidas necesarias para mitigar los riesgos y tomar medidas contra… especialmente el contenido ilegal, ”, advirtió además.

“La Unión Europea no es el lugar donde queremos ver la ley californiana importada”, agregó. “Lo dijimos muchas veces y por eso yo también quiero volver y agradecer la cooperación con los… ex personas que trabajan en Twitter, que colaboraron con nosotros. [for] varios años ya en Código de Conducta contra el discurso de odio y Código de Práctica [on disinformation] también. Así que lo sentimos. Creo que Twitter tenía gente muy informada y determinada que entendió que debe haber cierta responsabilidad, una responsabilidad mucho mayor en el sitio de las plataformas como Twitter”.

Cuando se le preguntó si el enfoque de las Notas de la comunidad de Twitter, que externaliza (por lo tanto, externaliza) la verificación de hechos a los usuarios de Twitter si suficientes personas intervienen para agregar un consenso de contexto a los tweets en disputa, podría ser suficiente por sí solo para cumplir con los requisitos legales para abordar la desinformación bajo la DSA, Jourova dijo que dependerá de los ejecutores de la Comisión evaluar si cumplen o no.

Sin embargo, señaló que la retirada de Twitter del Código es un paso significativo en la dirección equivocada, y agregó: “El Código de prácticas será reconocido como una medida de mitigación muy seria y confiable contra el contenido dañino”.




Source link

Salir de la versión móvil