Meta advirtió que enfrenta 'sanciones severas' en la UE si no soluciona los problemas de protección infantil en Instagram

Meta advirtió que enfrenta ‘sanciones severas’ en la UE si no soluciona los problemas de protección infantil en Instagram

La Unión Europea ha lanzado una advertencia contundente a Meta, diciendo que debe limpiar rápidamente su ley sobre protección infantil o enfrentar el riesgo de “sanciones severas”.

La advertencia sigue a un informe del Wall Street Journal ayer. El WSJ trabajó con investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst para encubrir y exponer una red de cuentas de Instagram creada para conectar a pedófilos con vendedores de material de abuso sexual infantil (CSAM) en la principal plataforma de redes sociales.

Investigación por Stanford también encontró que el sitio para compartir fotos propiedad de Meta es la plataforma más importante para los vendedores de MASI generado por ellos mismos (SG-CSAM), señalando los algoritmos de recomendación de Instagram como “una razón clave para la efectividad de la plataforma en la publicidad de MASI”. .

en un Pío disparó contra el gigante de la tecnología publicitaria esta mañana, el comisionado del mercado interno de la UE, Thierry Breton, dijo que el “código voluntario de protección infantil de la compañía parece no funcionar”, y agregó: “Mark Zuckerberg ahora debe explicar y tomar medidas inmediatas”.

#MetaEl código voluntario de protección infantil parece no funcionar.

Mark Zuckerberg ahora debe explicar y tomar medidas inmediatas.

Hablaré con él en la sede de Meta en Menlo Park el 23 de junio.

Después del 25 de agosto, bajo #DSA Meta tiene que demostrarnos medidas o enfrentar fuertes sanciones. pic.twitter.com/jA25IJH8Dp

— Thierry Breton (@ThierryBreton) 8 de junio de 2023

Breton dijo que hablará sobre la seguridad de los niños en una reunión con Zuckerberg en la sede de Meta en los EE. UU. a finales de este mes, y confirmó que la UE aplicará un plazo estricto sobre el tema al decir que espera que Meta demuestre que se han implementado medidas efectivas después. 25 de agosto, cuando la empresa esté legalmente obligada a cumplir con la Ley de Servicios Digitales (DSA) de la UE.

Las multas por incumplimiento de la DSA, que establece las reglas sobre cómo las plataformas deben abordar el contenido ilegal como CSAM, pueden escalar hasta el 6% de la facturación anual global.

Tanto Instagram como Facebook han sido designadas plataformas en línea muy grandes (también conocidas como VLOP) bajo el DSA, lo que conlleva obligaciones adicionales de evaluar y mitigar los riesgos sistémicos asociados a sus plataformas, incluidos los que se derivan específicamente de los sistemas y algoritmos de recomendación. Entonces, el nivel de riesgo que enfrenta Meta aquí parece sustancial.

“Después del 25 de agosto, bajo #DSA, Meta tiene que demostrarnos medidas o enfrentar fuertes sanciones”, advirtió Breton en el tuit, que destaca tanto el informe del WSJ como trabajo de investigación de Stanford Al observar la actividad de MASI en varias de las principales plataformas sociales, se concluye que “Instagram es actualmente la plataforma más importante para estas redes, con funciones que ayudan a conectar a compradores y vendedores”.

La amenaza de Breton de “sanciones severas” si no actúa podría traducirse en miles de millones (plural) de dólares en multas para Meta en la UE.

Nos pusimos en contacto con Meta para obtener una respuesta a la advertencia de Breton sobre la protección de los niños, pero en el momento de escribir este artículo no había respondido.

Instagram encontró vendedores recomendados de MASI

La investigación del Journal destacó el papel que desempeñan los algoritmos de recomendación de Instagram al vincular a los pedófilos con los vendedores de MASI.

“Instagram conecta a los pedófilos y los guía a los vendedores de contenido a través de sistemas de recomendación que se destacan en vincular a aquellos que comparten intereses de nicho, encontraron el Journal y los investigadores académicos”, escribió.

“Aunque fuera de la vista de la mayoría en la plataforma, las cuentas sexualizadas en Instagram son descaradas sobre su interés. Los investigadores descubrieron que Instagram permitía a las personas buscar hashtags explícitos como #pedowhore y #preteensex y los conectaba a cuentas que usaban los términos para anunciar la venta de material sexual infantil. Dichas cuentas a menudo afirman que son administradas por los propios niños y usan identificadores abiertamente sexuales que incorporan palabras como “pequeña zorra para ti”.

Meta respondió a las consultas que le hizo el WSJ antes de la publicación diciendo que había bloqueado miles de hashtags que sexualizan a los niños, algunos de los cuales, según especifica el informe del Journal, tenían millones de publicaciones.

El gigante tecnológico también dijo que había restringido sus sistemas para recomendar términos de búsqueda a usuarios que se sabe que están asociados con el abuso sexual infantil.

El informe del WSJ incluye una captura de pantalla de una ventana emergente proporcionada por Instagram a los investigadores involucrados en la investigación cuando buscaban un hashtag relacionado con la pedofilia, que advertía que “estos resultados pueden contener imágenes de abuso sexual infantil”. El texto de la notificación también describía los riesgos legales de ver MASI, el daño que el abuso sexual causa a los niños y sugería recursos para “obtener ayuda confidencial” o denunciar contenido “inapropiado”, antes de ofrecer dos opciones al usuario: “Obtener recursos”. o “Ver resultados de todos modos”, lo que sugiere que la plataforma estaba al tanto de los problemas de CSAM asociados con los hashtags pero no había eliminado el contenido o incluso bloqueado el acceso de los usuarios.

Según el WSJ, Meta solo eliminó la opción que permitía a los usuarios ver el CSAM sospechoso después de haber preguntado al respecto y su informe dice que la compañía se negó a explicar por qué había ofrecido esa opción en primer lugar.

El papel activo del motor de recomendaciones de Instagram en la promoción de cuentas de vendedores de MASN parece igualmente preocupante, dado que se descubrió que la plataforma podía identificar sospechas de MASI, lo que genera preguntas sobre por qué Meta no aprovechó la vigilancia del comportamiento que implementa en los usuarios para impulsar la participación (y aumentar sus ingresos publicitarios) haciendo coincidir las cuentas con el contenido en función de detectar actividad de plataforma similar para mapear la red de pedófilos y cerrarla.

Sobre esto, Meta le dijo al WSJ que está trabajando para evitar que sus sistemas recomienden que adultos potencialmente pedófilos se conecten entre sí o interactúen con el contenido de los demás.

El informe del Journal también narra casos en los que los algoritmos de Instagram sugirieron automáticamente términos de búsqueda adicionales para eludir un bloqueo que la plataforma aplicó en los enlaces a un servicio de transferencia de archivos encriptados conocido por transmitir contenido sexual infantil.

El informe del WSJ también detalla cómo ver solo una cuenta de vendedor menor de edad en Instagram llevó a la plataforma a recomendar a los usuarios que vean nuevas cuentas de venta de CSAM.

“Después del barrido inicial de cuentas de la empresa que Stanford y el Journal le señalaron, la cuenta de UMass [Brian Levine, director of the Rescue Lab] se registró en algunas de las cuentas restantes de vendedores menores de edad en Instagram. Como antes, ver incluso uno de ellos llevó a Instagram a recomendar otros nuevos. Las sugerencias de Instagram estaban ayudando a reconstruir la red que el propio personal de seguridad de la plataforma estaba tratando de desmantelar”, agregó.




Source link