El Reino Unido nombra a su elección para el organismo de control de los "daños" de las redes sociales

El Reino Unido nombra a su elección para el organismo de control de los “daños” de las redes sociales

El gobierno del Reino Unido ha dado el siguiente paso en su gran desafío de formulación de políticas para domar los peores excesos de las redes sociales mediante la regulación de una amplia gama de daños en línea. Como resultado, nombró a Ofcom, el organismo de control de las comunicaciones existente, como su elección preferida para hacer cumplir las reglas sobre el “discurso dañino” en plataformas como Facebook, Snapchat y TikTok en el futuro.

En abril pasado, el anterior gobierno liderado por los conservadores presentó propuestas populistas pero controvertidas para imponer un deber de cuidado en las plataformas de Internet, en respuesta a la creciente preocupación pública sobre los tipos de contenido a los que los niños están expuestos en línea.

Su libro blanco cubre una amplia gama de contenido en línea, desde terrorismo, violencia y discurso de odio, hasta explotación infantil, autolesiones/suicidio, acoso cibernético, desinformación y material inapropiado para la edad, y el gobierno establece un plan para exigir plataformas para tomar medidas “razonables” para proteger a sus usuarios de una variedad de daños.

Sin embargo, los activistas de derechos civiles y digitales advierten que el plan tendrá un gran impacto en la privacidad y el discurso en línea, argumentando que impondrá un requisito legal en las plataformas para monitorear de cerca a todos los usuarios y aplicar tecnologías de filtrado de voz escalofriante en las cargas para cumplir con muy conceptos ampliamente definidos de daño. Los expertos legales son también crítico.

Además, requiere que las empresas de redes sociales *eviten* que el discurso ‘dañino’ (indefinido) se publique en línea en primer lugar; y evitar recomendaciones de contenido ‘inapropiado’ (indefinido).

Así que espere filtros de carga patrocinados por el estado, sistemas de recomendación y vigilancia masiva.

— Reloj Gran Hermano (@BigBrotherWatch) 12 de febrero de 2020

No obstante, el (ahora) gobierno de mayoría conservadora ha dicho que sigue comprometido con la legislación.

Hoy respondió a algunas de las preocupaciones planteadas sobre el impacto del plan en la libertad de expresión, publicación una respuesta parcial a la consulta pública sobre el Libro Blanco de Daños en la Red, aunque queda pendiente un proyecto de ley, sin fecha límite confirmada.

“Se han incorporado salvaguardias para la libertad de expresión en todo el marco”, escribe el gobierno en un resumen ejecutivo. “En lugar de exigir la eliminación de piezas específicas de contenido legal, la regulación se centrará en los sistemas y procesos más amplios que tienen las plataformas para hacer frente a los daños en línea, manteniendo un enfoque proporcionado y basado en el riesgo”.

Dice que está planeando establecer una barra diferente para el contenido considerado ilegal en comparación con el contenido que tiene “potencial de causar daño”, con los requisitos de eliminación de contenido más estrictos que se planean para el contenido terrorista y de explotación sexual infantil. Mientras que las empresas no se verán obligadas a eliminar “piezas específicas de contenido legal”, como dice el gobierno.

Ofcom, como regulador de daños en línea, tampoco investigará ni juzgará las “quejas individuales”.

“En cambio, el nuevo marco regulatorio requerirá que las empresas, cuando corresponda, indiquen explícitamente qué contenido y comportamiento consideran aceptable en sus sitios y lo hagan cumplir de manera consistente y transparente. Todas las empresas incluidas en el alcance deberán garantizar un mayor nivel de protección para los niños y tomar medidas razonables para protegerlos de contenido inapropiado o dañino”, escribe.

“Las empresas podrán decidir qué tipo de contenido o comportamiento legal es aceptable en sus servicios, pero deben tomar medidas razonables para proteger a los niños de daños. Deberán establecer esto en términos y condiciones claros y accesibles y hacerlos cumplir de manera efectiva, consistente y transparente. El enfoque propuesto mejorará la transparencia para los usuarios sobre qué contenido es y qué no es aceptable en diferentes plataformas, y mejorará la capacidad de los usuarios para cuestionar la eliminación de contenido cuando esto ocurra”.

Otro requisito será que las empresas cuenten con “mecanismos de reparación de usuarios efectivos y proporcionados”, que permitan a los usuarios denunciar contenido dañino y desafiar la eliminación de contenido “cuando sea necesario”.

“Esto brindará a los usuarios vías más claras, más efectivas y más accesibles para cuestionar la eliminación de contenido, lo cual es una salvaguardia importante para el derecho a la libertad de expresión”, sugiere el gobierno, y agrega que: “Estos procesos deberán ser transparentes, en línea con términos y condiciones, y aplicado consistentemente.”

Los ministros dicen que aún no han tomado una decisión sobre qué tipo de responsabilidad puede enfrentar la alta dirección de las empresas cubiertas por la ley planificada, ni sobre medidas adicionales de interrupción del negocio, y el gobierno dice que establecerá su posición política final en la primavera.

“Reconocemos la importancia de que el regulador tenga una gama de poderes de aplicación que utilice de manera justa, proporcionada y transparente. Es igualmente esencial que los ejecutivos de la empresa estén lo suficientemente incentivados para tomar en serio la seguridad en línea y que el regulador pueda tomar medidas cuando no lo hagan”, escribe.

Tampoco está claro cómo se evaluará si las empresas están dentro (o fuera) del alcance de la regulación.

“Solo porque una empresa tiene una página de redes sociales que no la incluye en el ámbito de la regulación”, señala la respuesta del gobierno. “Para estar dentro del alcance, una empresa tendría que operar su propio sitio web con la funcionalidad para permitir el intercambio de contenido generado por el usuario o las interacciones del usuario. Introduciremos esta legislación de manera proporcional, minimizando la carga regulatoria para las pequeñas empresas. La mayoría de las pequeñas empresas donde existe un menor riesgo de que ocurran daños no tendrán que realizar cambios desproporcionadamente onerosos en su servicio para cumplir con la regulación propuesta”.

El gobierno es claro en la respuesta de que los daños en línea siguen siendo “una prioridad legislativa clave”.

“Tenemos un programa de trabajo integral planificado para garantizar que mantenemos el impulso hasta que se presente la legislación tan pronto como lo permita el tiempo parlamentario”, escribe, describiendo el informe de respuesta de hoy como “un paso iterativo mientras consideramos la mejor manera de abordar este problema complejo e importante”. ” y agregó: “Continuaremos interactuando estrechamente con la industria y la sociedad civil a medida que finalizamos la política restante”.

Mientras tanto, el gobierno dice que está trabajando en un paquete de medidas “para garantizar el progreso ahora en la seguridad en línea”, incluidos los códigos de práctica provisionales, incluida la orientación para las empresas sobre cómo abordar el contenido de explotación y abuso sexual infantil y terrorista en línea; un informe anual de transparencia gubernamental, que dice publicará “en los próximos meses”; y una estrategia de alfabetización mediática, para apoyar la conciencia pública sobre la seguridad y privacidad en línea.

Agrega que espera que las plataformas de redes sociales “tomen medidas ahora para abordar el contenido o la actividad dañina en sus servicios”, antes de que entren los requisitos más formales.

Instagram, propiedad de Facebook, ha recibido una presión de alto nivel por parte de los ministros sobre cómo maneja el contenido que promueve la autolesión y el suicidio después de que los medios de comunicación recogieran una campaña de la familia de una estudiante que se suicidó después de haber estado expuesta a contenido de Instagram que fomentaba la autolesión. dañar.

Posteriormente, Instagram anunció cambios en sus políticas para el manejo de contenido que fomente o represente autolesiones/suicidios, diciendo que limitaría la forma en que se podría acceder. Esto más tarde se transformó en una prohibición de parte de este contenido.

El gobierno dijo hoy que se espera que las empresas que ofrecen servicios en línea que involucran contenido generado por el usuario o interacciones del usuario hagan uso de lo que denomina “una gama proporcionada de herramientas”, incluidas las tecnologías de control de edad y verificación de edad, para evitar que los niños accedan a la edad. contenido inapropiado y “protegerlos de otros daños”.

Esta es también la pieza de la legislación planificada que pretende tomar el relevo de las propuestas de bloqueo de pornografía de la Ley de Economía Digital, que el gobierno abandonó el año pasado, diciendo que incorporaría medidas equivalentes en la próxima legislación sobre daños en línea.

El Ministerio del Interior ha estado consultando con empresas de redes sociales sobre el diseño de tecnologías sólidas de verificación de edad durante muchos meses.

En su propia declaración de respuesta de hoy, Ofcom dijo que trabajará con el gobierno para garantizar que “cualquier regulación brinde una protección efectiva para las personas en línea” y, pendiente de la cita, “considere qué podemos hacer antes de que se apruebe la legislación”.

El plan Online Harms no es el único trabajo relacionado con Internet en curso en Whitehall, y los ministros señalaron que: “El trabajo sobre la integridad electoral y las cuestiones relacionadas con la transparencia en línea se están llevando adelante como parte del programa Defending Democracy junto con la Oficina del Gabinete”.

En 2018, un comité parlamentario del Reino Unido pidió un impuesto sobre las plataformas de redes sociales para financiar programas de alfabetización digital para combatir la desinformación en línea y defender los procesos democráticos, durante una investigación sobre el uso de las redes sociales para campañas digitales. Sin embargo, el gobierno del Reino Unido ha sido más lento en actuar en este frente.

El ex presidente del comité DCMS, Damian Collins, llamado hoy para que cualquier futuro regulador de las redes sociales tenga “poderes reales por ley”, incluida la capacidad de “investigar y aplicar sanciones a las empresas que no cumplan con sus obligaciones”.

En el informe final del comité de DCMS, los parlamentarios pidieron que se investigara el negocio de Facebook, lo que generó preocupaciones sobre la competencia y la privacidad.




Source link