Los algoritmos de la 'caja negra' de las grandes tecnologías enfrentan supervisión regulatoria bajo el plan de la UE

Los algoritmos de la ‘caja negra’ de las grandes tecnologías enfrentan supervisión regulatoria bajo el plan de la UE

Se requerirá que las principales plataformas de Internet abran sus algoritmos a la supervisión regulatoria según las propuestas que los legisladores europeos presentarán el próximo mes.

en un habla Hoy, la vicepresidenta ejecutiva de la Comisión, Margrethe Vestager, sugirió que la responsabilidad algorítmica será un pilar clave del próximo paquete digital legislativo, con un borrador de reglas que requerirán que las plataformas expliquen cómo funcionan sus sistemas de recomendación y que ofrezcan a los usuarios más control sobre ellos.

“Las reglas que estamos preparando otorgarían a todos los servicios digitales el deber de cooperar con los reguladores. Y las plataformas más grandes tendrían que proporcionar más información sobre la forma en que funcionan sus algoritmos, cuando los reguladores lo soliciten “, dijo, y agregó que las plataformas también” tendrán que dar a los reguladores e investigadores acceso a los datos que tienen, incluidos los archivos de anuncios “. .

Si bien las plataformas de redes sociales como Facebook han creado archivos de anuncios antes de cualquier requisito reglamentario para hacerlo, hay quejas continuas de investigadores externos sobre cómo está estructurada la información y cuán (in) accesible es para un estudio independiente.

Más información para los usuarios sobre la segmentación de anuncios es otro requisito planificado, junto con mayores requisitos de informes para que las plataformas expliquen las decisiones de moderación de contenido, según Vestager, quien también dio una vista previa de lo que está por llegar en la Ley de Servicios Digitales y la Ley de Mercados Digitales en otro discurso a principios de esta semana.

Los legisladores regionales están respondiendo a las preocupaciones de que los algoritmos de ‘caja negra’ puedan tener efectos dañinos en las personas y las sociedades, que se derivan de la forma en que procesan los datos y ordenan y clasifican la información, con riesgos como la discriminación, la amplificación del sesgo y la focalización abusiva de personas y grupos vulnerables.

La Comisión ha dicho que está trabajando en reglas de transparencia vinculantes con el objetivo de obligar a los gigantes tecnológicos a asumir una mayor responsabilidad por el contenido que sus plataformas amplifican y monetizan. Aunque el diablo estará tanto en el detalle de los requisitos como en la eficacia con la que se harán cumplir, pero un borrador del plan debe entregarse en un mes más o menos.

“Uno de los principales objetivos de la Ley de Servicios Digitales que presentaremos en diciembre será proteger nuestra democracia, asegurándonos de que las plataformas sean transparentes sobre la forma en que funcionan estos algoritmos, y hacer que esas plataformas sean más responsables de las decisiones que toman. hacer ”, dijo Vestager en un discurso hoy en un evento organizado por el grupo de defensa de la investigación sin fines de lucro AlgorithmWatch.

“Las propuestas en las que estamos trabajando significarían que las plataformas tendrían que decirles a los usuarios cómo sus sistemas de recomendación deciden qué contenido mostrar, por lo que es más fácil para nosotros juzgar si confiar o no en la imagen del mundo que nos brindan”.

Según las normas previstas, las plataformas de Internet más potentes, los llamados ‘guardianes’ en el lenguaje de la UE, tendrán que proporcionar informes periódicos sobre “las herramientas de moderación de contenido que utilizan y la precisión y los resultados de esas herramientas”, como dijo Vestager.

También habrá requisitos de divulgación específicos para la orientación de anuncios que van más allá de las divulgaciones difusas actuales que las plataformas como Facebook ya pueden ofrecer (en su caso, a través del menú ‘¿Por qué veo este anuncio?’).

Se tendrá que proporcionar “mejor información”, dijo, como plataformas que le digan a los usuarios “quién colocó un determinado anuncio y por qué está dirigido a nosotros”. El objetivo general será garantizar que los usuarios de dichas plataformas tengan “una mejor idea de quién está tratando de influir en nosotros y una mejor oportunidad de detectar cuándo los algoritmos nos discriminan”, agregó.

Hoy en día, una coalición de 46 organizaciones de la sociedad civil liderada por Algoritmo Reloj instó a la Comisión a asegurarse de que los requisitos de transparencia en la próxima legislación sean “significativo”- pidiendo que introduzca“ marcos integrales de acceso a datos ”que proporcionen a los organismos de control las herramientas que necesitan para responsabilizar a las plataformas, así como que permitan a los periodistas, académicos y la sociedad civil“ desafiar y escudriñar el poder ”.

El conjunto del grupo de recomendaciones pedir obligaciones de divulgación vinculantes basadas en las funcionalidades técnicas de las plataformas dominantes; una sola institución de la UE “con un mandato legal claro para permitir el acceso a los datos y hacer cumplir las obligaciones de transparencia”; y disposiciones para garantizar que la recopilación de datos cumpla con las normas de protección de datos de la UE.

Otra forma de reequilibrar la asimetría de poder entre los gigantes de la plataforma de minería de datos y las personas a las que rastrean, perfilan y apuntan podría implicar requisitos para permitir que los usuarios apaguen las fuentes algorítmicas por completo si lo desean, excluyendo la posibilidad de discriminación o manipulación basada en datos. . Pero queda por ver si los legisladores de la UE llegarán tan lejos en las próximas propuestas legislativas.

Las únicas pistas que Vestager ofreció en este frente fue decir que las reglas planificadas “también darán más poder a los usuarios, por lo que los algoritmos no tienen la última palabra sobre lo que podemos ver y lo que no podemos ver”. .

Las plataformas también tendrán que dar a los usuarios “la capacidad de influir en las elecciones que los sistemas de recomendación hacen en nuestro nombre”, también dijo.

En comentarios adicionales, confirmó que habrá requisitos de informes más detallados para los servicios digitales en torno a la moderación de contenido y las eliminaciones, diciendo que tendrán que informar a los usuarios cuando eliminen contenido y otorgarles “derechos efectivos para impugnar esa eliminación”. Si bien existe un apoyo público generalizado en todo el bloque para reiniciar las reglas de juego para los gigantes digitales, también hay opiniones sólidas de que la regulación no debe afectar la libertad de expresión en línea, como alentar a las plataformas a reducir su riesgo regulatorio mediante la aplicación de filtros de carga o eliminar contenido controvertido sin una razón válida.

Las propuestas necesitarán el apoyo de los Estados miembros de la UE, a través del Consejo Europeo, y representantes electos en el Parlamento Europeo.

Este último ya ha votado a favor de reglas más estrictas sobre la segmentación de anuncios. Los eurodiputados también instaron a la Comisión a rechazar el uso de filtros de carga o cualquier forma de control de contenido ex ante para contenido dañino o ilegal, diciendo que la decisión final sobre si el contenido es legal o no debe ser tomada por un poder judicial independiente.

Al mismo tiempo, la Comisión está trabajando en la elaboración de normas específicas para aplicaciones que utilizan inteligencia artificial, pero ese paquete legislativo no se espera hasta el próximo año.

Vestager confirmó que se introducirá a principios de 2021 con el objetivo de crear “un ecosistema de confianza de IA”.


Source link