Ícono del sitio La Neta Neta

Las reglas de IA generativa de China establecen límites y castigos por uso indebido

Las reglas de IA generativa de China establecen límites y castigos por uso indebido

A medida que los generadores de texto a imagen y los chatbots inteligentes siguen deslumbrando a las personas, China se ha movido rápidamente para establecer lo que las personas pueden hacer con las herramientas basadas en modelos poderosos de IA. Los reguladores del país claramente se inclinan por la cautela cuando se trata de las consecuencias de la IA generativa. Eso contrasta con EE. UU., que hasta ahora ha permitido en gran medida que el sector privado establezca sus propias reglas, lo que plantea cuestiones éticas y legales.

La Administración del Ciberespacio de China, el principal organismo de control de Internet del país, aprobó recientemente una regulación sobre la tecnología de “síntesis profunda”, que define como “tecnología que utiliza el aprendizaje profundo, la realidad virtual y otros algoritmos de síntesis para generar texto, imágenes, audio, video y escenas virtuales”. La regulación se aplica a los proveedores de servicios que operan en China y entrará en vigencia el 10 de enero.

Nada del conjunto de reglas se destaca como una sorpresa, ya que las restricciones están en su mayoría en línea con las que supervisan otras formas de servicios de Internet para el consumidor en China, como juegos, redes sociales y videos cortos. Por ejemplo, los usuarios tienen prohibido utilizar IA generativa para participar en actividades que pongan en peligro la seguridad nacional, dañen el interés público o sean ilegales.

Tales restricciones son posibles gracias al aparato de verificación de nombres reales de China. El anonimato realmente no existe en Internet en China, ya que generalmente se pide a los usuarios que vinculen sus cuentas en línea a sus números de teléfono, que están registrados con sus identificaciones gubernamentales. Los proveedores de IA generativa también deben verificar a los usuarios mediante números de teléfono móvil, identificaciones u otras formas de documentación.

Como era de esperar, China también quiere censurar lo que pueden generar los algoritmos. Los proveedores de servicios deben auditar el contenido generado por IA y las indicaciones de los usuarios de forma manual o por medios técnicos. Baidu, uno de los primeros en lanzar un modelo chino de texto a imagen, ya filtra contenido políticamente sensible. La censura es una práctica estándar en todos los medios de comunicación en China. La pregunta es si la moderación de contenido podrá mantenerse al día con el gran volumen de texto, audio, imágenes y videos que se producen en los modelos de IA.

El gobierno chino quizás debería recibir algún crédito por intervenir para evitar el mal uso de la IA. Por un lado, las reglas prohíben que las personas usen tecnología de síntesis profunda para generar y difundir noticias falsas. Cuando los datos utilizados para la capacitación en IA contienen información personal, los proveedores de tecnología deben cumplir con la ley de protección de información personal del país. Las plataformas también deben recordar a los usuarios que busquen aprobación antes de alterar los rostros y las voces de los demás utilizando tecnología de síntesis profunda. Por último, esta regla debería aliviar algunas preocupaciones sobre la infracción de derechos de autor y el engaño académico: en el caso de que el resultado de la IA generativa pueda causar confusión o identificación errónea por parte del público, el proveedor de servicios debe colocar una marca de agua en un lugar destacado para informar al público que es un trabajo de la máquina.

Los usuarios que infrinjan estas normas se enfrentarán a sanciones. Se solicita a los operadores de servicios que mantengan registros de comportamientos ilegales y los informen a las autoridades pertinentes. Además de eso, las plataformas también deberían emitir advertencias, restringir el uso, suspender el servicio o incluso cerrar las cuentas de quienes infrinjan las reglas.


Source link
Salir de la versión móvil