El gobierno del Reino Unido ha dado el siguiente paso en su gran desafío de formulación de políticas para domar los peores excesos de las redes sociales mediante la regulación de una amplia gama de daños en línea, nombrando al actual regulador de comunicaciones, Ofcom, como su elección preferida para hacer cumplir las reglas en torno al ‘discurso dañino’ en plataformas como Facebook, Snapchat y TikTok en el futuro.
En abril pasado, el anterior gobierno liderado por los conservadores presentó propuestas populistas pero controvertidas para legislar para establecer un deber de cuidado en las plataformas de Internet, respondiendo a la creciente preocupación pública sobre los tipos de contenido a los que los niños están expuestos en línea.
Su libro blanco cubre una amplia gama de contenido en línea, desde terrorismo, violencia y discurso de odio, hasta explotación infantil, autolesiones / suicidio, acoso cibernético, desinformación y material inapropiado para la edad, con el gobierno estableciendo un plan para exigir plataformas para tomar medidas “razonables” para proteger a sus usuarios de una variedad de daños.
Sin embargo, los defensores de los derechos digitales y civiles advierten que el plan tendrá un gran impacto en el habla y la privacidad en línea, argumentando que impondrá un requisito legal a las plataformas para monitorear de cerca a todos los usuarios y aplicar tecnologías de filtrado escalofriante en las cargas para cumplir de manera muy amplia. conceptos definidos de daño – doblándolo censura estatal. Los expertos legales son también crítico.
Sin embargo, el (ahora) gobierno de mayoría conservadora ha dicho que sigue comprometido con la legislación.
Hoy respondió a algunas de las inquietudes planteadas sobre el impacto del plan en la libertad de expresión, publicando una respuesta parcial a la consulta pública en el Libro Blanco de Daños en línea, aunque un proyecto de ley sigue pendiente, sin fecha límite confirmada.
“Se han incorporado salvaguardas para la libertad de expresión en todo el marco”, escribe el gobierno en un resumen ejecutivo. “En lugar de exigir la eliminación de piezas específicas de contenido legal, la regulación se centrará en los sistemas y procesos más amplios que las plataformas tienen para hacer frente a los daños en línea, manteniendo un enfoque proporcional y basado en el riesgo”.
Dice que está planeando establecer una barra diferente para el contenido considerado ilegal frente a contenido que tiene “potencial para causar daño”, con los requisitos de eliminación de contenido más pesados planeados para el contenido de explotación sexual infantil y terrorista. Mientras que las empresas no se verán obligadas a eliminar “piezas específicas de contenido legal”, como lo expresa el gobierno.
Ofcom, como regulador de daños en línea, tampoco investigará ni juzgará sobre “quejas individuales”.
“El nuevo marco regulatorio requerirá, en cambio, que las compañías, donde sea relevante, establezcan explícitamente qué contenido y comportamiento consideran que sea aceptable en sus sitios y lo hagan cumplir de manera consistente y transparente. Todas las compañías en el alcance deberán garantizar un mayor nivel de protección para los niños y tomar medidas razonables para protegerlos del contenido inapropiado o dañino “, escribe.
“Las empresas podrán decidir qué tipo de contenido o comportamiento legal es aceptable en sus servicios, pero deben tomar medidas razonables para proteger a los niños de daños. Tendrán que establecer esto en términos y condiciones claros y accesibles y aplicarlos de manera efectiva, consistente y transparente. El enfoque propuesto mejorará la transparencia para los usuarios sobre qué contenido es y no es aceptable en diferentes plataformas, y mejorará la capacidad de los usuarios para desafiar la eliminación de contenido donde esto ocurra “.
Otro requisito será que las empresas tengan “mecanismos de reparación de usuarios efectivos y proporcionados”, lo que permitirá a los usuarios informar sobre contenido dañino y cuestionar la eliminación de contenido “cuando sea necesario”.
“Esto brindará a los usuarios vías más claras, más efectivas y más accesibles para cuestionar la eliminación de contenido, lo cual es una salvaguarda importante para el derecho a la libertad de expresión”, sugiere el gobierno, y agrega que: “Estos procesos deberán ser transparentes, en línea con términos y condiciones, y aplicado de manera consistente “.
Los ministros dicen que aún no han tomado una decisión sobre qué tipo de responsabilidad puede enfrentar la alta gerencia de las empresas cubiertas bajo la ley planificada, ni sobre medidas adicionales de interrupción del negocio, y el gobierno dijo que establecerá su posición política final en la primavera.
“Reconocemos la importancia de que el regulador tenga una gama de poderes de aplicación que utiliza de manera justa, proporcionada y transparente. Es igualmente esencial que los ejecutivos de la compañía estén suficientemente incentivados para tomarse en serio la seguridad en línea y que el regulador pueda tomar medidas cuando no lo hagan ”, escribe.
Tampoco está claro cómo se evaluará a las empresas como dentro (o fuera) del alcance de la regulación.
“Solo porque una empresa tiene una página de redes sociales que no la incluye en el ámbito de la regulación”, señala la respuesta del gobierno. “Para estar dentro del alcance, una empresa tendría que operar su propio sitio web con la funcionalidad para permitir compartir contenido generado por el usuario o interacciones del usuario. Introduciremos esta legislación de manera proporcional, minimizando la carga regulatoria para las pequeñas empresas. La mayoría de las pequeñas empresas donde existe un menor riesgo de daños no tendrán que hacer cambios desproporcionadamente pesados en sus servicios para cumplir con la regulación propuesta ”.
El gobierno es claro en la respuesta que los daños en línea siguen siendo “una prioridad legislativa clave”.
“Tenemos un programa integral de trabajo planificado para garantizar que mantengamos el impulso hasta que se introduzca la legislación tan pronto como lo permita el tiempo parlamentario”, escribe, describiendo el informe de respuesta de hoy, “un paso iterativo mientras consideramos la mejor manera de abordar este complejo e importante tema”. “- y agregando:” Seguiremos colaborando estrechamente con la industria y la sociedad civil a medida que finalicemos la política restante “.
Mientras tanto, el gobierno dice que es trabajando en un paquete de medidas “para garantizar el progreso ahora en la seguridad en línea” – incluyendo códigos de prácticas provisionales, que incluyen orientación para empresas sobre cómo abordar el contenido de abuso y explotación sexual de niños y terroristas en línea; un informe anual de transparencia gubernamental, que dice que publicará “en los próximos meses”; y una estrategia de alfabetización mediática, para apoyar la conciencia pública sobre la seguridad y la privacidad en línea.
Agrega que espera que las plataformas de redes sociales “tomen medidas ahora para abordar el contenido o la actividad dañina en sus servicios”, antes de que entren requisitos más formales.
Instagram propiedad de Facebook ha recibido una presión de alto nivel por parte de los ministros sobre cómo maneja el contenido que promueve la autolesión y el suicidio después de que los medios de comunicación recogieron una campaña de la familia de una colegiala que se suicidó después de haber estado expuesta al contenido de Instagram que fomentaba la autolesión.
Posteriormente, Instagram anunció cambios en sus políticas para manejar el contenido que alienta o representa la autolesión / suicidio, diciendo que limitaría la forma de acceder. Esto luego se transformó en una prohibición de parte de este contenido.
El gobierno dijo hoy que se espera que las compañías que ofrecen servicios en línea que involucran contenido generado por el usuario o interacciones del usuario utilicen lo que denomina “una gama proporcional de herramientas”, que incluyen tecnologías de verificación de edad y verificación de edad, para evitar que los niños accedan a la edad. contenido inapropiado y “protegerlos de otros daños”.
Esta es también la parte de la legislación planeada destinada a recoger el testigo de las propuestas de bloque de pornografía de la Ley de Economía Digital, que el gobierno rechazó el año pasado, diciendo que incorporaría medidas equivalentes en la próxima legislación sobre daños en línea.
El Ministerio del Interior ha estado consultando con compañías de redes sociales en el diseño de tecnologías robustas de verificación de edad durante muchos meses.
En su propia declaración de respuesta de hoy, Ofcom, que sería responsable de los detalles de la política en virtud de las propuestas actuales, dijo que trabajará con el gobierno para garantizar que “cualquier regulación brinde protección efectiva para las personas en línea” y, en espera de la cita, “considere lo que puede hacer antes de que se apruebe la legislación “.
El plan de daños en línea no es el trabajo en línea relacionado con Internet en curso en Whitehall, con los ministros señalando que: “El trabajo sobre la integridad electoral y los problemas de transparencia en línea relacionados se están llevando a cabo como parte del programa Defendiendo la Democracia junto con la Oficina del Gabinete”.
En 2018, un comité parlamentario del Reino Unido solicitó un impuesto sobre las plataformas de redes sociales para financiar programas de alfabetización digital para combatir la desinformación en línea y defender los procesos democráticos, durante una investigación sobre el uso de las redes sociales para la campaña digital. Sin embargo, el gobierno del Reino Unido ha sido más lento para actuar en este frente.
El ex presidente del comité de DCMS, Damian Collins, llamado hoy para que cualquier futuro regulador de las redes sociales tenga “poderes legales reales”, incluida la capacidad de “investigar y aplicar sanciones a las empresas que no cumplan con sus obligaciones”.
En el informe final del comité de DCMS, los parlamentarios pidieron que se investigara el negocio de Facebook, lo que plantea preocupaciones de competencia y privacidad.