Ícono del sitio La Neta Neta

Twitter podría enfrentar una gran cantidad de multas en Alemania por discurso de odio ilegal

Is Elon Musk’s Twitter about to fall out of the GDPR’s one-stop shop?

El Twitter de Elon Musk podría estar pendiente de una cadena de sanciones multimillonarias por no eliminar el discurso de odio ilegal en Alemania.

Las multas podrían incluso acumularse hasta miles de millones si el gobierno federal actúa en los numerosos casos de inacción de moderación de contenido que ya se le han informado y los tribunales alemanes confirman que se ha infringido la ley.

A principios de esta semana, el gobierno federal anunció que estaba instigando un procedimiento por presuntas fallas sistémicas en virtud de la ley de eliminación de discursos de odio del país. La ley, conocida coloquialmente como NetzDG, permite multas de hasta 50 millones de euros por caso.

El gobierno federal está actuando en solo un puñado de tuits de los cientos que se han informado y recopilado en una base de datos, según el abogado Chan-jo Jun, fundador y socio gerente de la firma de abogados especializada en TI, JunIT Rechtsanwälte.

Jun representa al comisionado de antisemitismo del estado federal de Baden-Württemberg, Michael Blume, quien dice que ha sido objeto de tuits abusivos y difamatorios que Twitter se ha negado a eliminar. Algunos de los tuits abusivos fueron publicados por un usuario de Twitter que había sido prohibido antes de que Musk se hiciera cargo de la plataforma, pero su cuenta fue restablecida en la amnistía general de Musk sobre cuentas suspendidas.

A fines del año pasado, el bufete de abogados acudió a los tribunales en busca de una orden judicial contra Twitter por no actuar sobre los informes para eliminar el discurso de odio en virtud de la ley NetzDG. El desafío legal logró establecer que los tuits eran ilegales. Y parece haber contribuido a impulsar la acción del gobierno federal, que el martes dijo que había establecido “indicaciones suficientes de fallas” en los procesos de gestión de quejas de Twitter para iniciar un proceso que podría resultar en la primera sanción para una empresa de redes sociales. por no eliminar contenido ilegal bajo NetzDG.

Hablando de los antecedentes del caso, Jun le dijo a TechCrunch que su firma había informado una serie de tuits a la Oficina Federal de Justicia (BfJ) el año pasado, pero inicialmente se les dijo que no tenían suficiente material para establecer que había una falla sistémica.

“Habíamos denunciado varios casos a la [BfJ] en ese momento, y encontraron que coincidieron en que estos tuits eran ilegales pero dijeron que no tienen material suficiente para un fallo sistemático. Y fue entonces cuando un grupo de voluntarios comenzó a buscar sistemáticamente contenido ilegal y siguió reportándolo y creando una enorme base de datos… y siguieron enviándolo a la [BfJ]. Así que son más de 600 casos”, dijo.

“Los que ahora están sujetos a la [federal government’s] caso parecen ser sólo los primeros. Los eligieron porque todos eran similares en ese sentido; creo que provenían del mismo usuario y tenían el mismo contenido. Probablemente por eso los eligieron porque sería el caso más fácil de ver que es una falla sistemática. Que no fue una sola falla de un moderador de contenido, sino que la gran mayoría, o todos, los informes se manejaron incorrectamente”.

A fines del año pasado, el New York Times informó sobre una investigación realizada por el Centro para contrarrestar el odio digital, la Liga antidifamación y varios otros grupos que estudian plataformas en línea que encontraron aumentos importantes en el discurso de odio desde que Musk se hizo cargo de la plataforma a fines de octubre y se dispuso a reducir drásticamente la plantilla: incluida la reducción de personal en Alemania y otras oficinas internacionales.

Las preocupaciones sobre el impacto de Musk en la moderación de contenido de Twitter en la región también han provocado críticas del ejecutivo de la UE, la Comisión Europea, que asumirá un papel importante de supervisión de plataformas más grandes en virtud de la Ley de Servicios Digitales a finales de este año, que establecerá reglas para cómo deben responder los servicios a los informes de contenido ilegal.

El comisionado del mercado interno, Thierry Breton, advirtió a Musk en noviembre pasado que la compañía tiene un gran trabajo por delante para cumplir con el reglamento paneuropeo entrante, según el cual las sanciones por infracciones pueden escalar hasta el 6% de la facturación anual global. Entonces, si Twitter aún no está en bancarrota, bajo su propietario multimillonario errático y fuertemente apalancado, se enfrenta a un futuro terriblemente costoso si Musk sigue burlándose de los reguladores e ignorando las leyes que no le gustan.

Incluso solo en Alemania, si la BfJ actuara en los más de 600 casos ilegales de incitación al odio que ya se le han denunciado, que podrían suponer multas de hasta 30 000 millones de euros para Twitter, según las sanciones máximas establecidas en la ley NetzDG. .

Por supuesto, un resultado máximo teórico es poco probable. Pero claramente no hay escasez de casos que la BfJ podría hacer cumplir, lo que significa que las multas por las fallas de Twitter, propiedad de Musk, para eliminar el discurso de odio, no obstante, podrían acumularse rápidamente. Y Musk no tiene un suministro ilimitado de muebles de oficina heredados para vender para pagar sus deudas.

Jun dice que espera que la primera sanción sobre los tuits sobre los que BfJ ha tomado medidas se establezca por debajo del máximo, suponiendo que el tribunal confirme que son ilegales.

“La ley prevé multas de hasta 50 millones de euros por cada caso. Es posible que al principio no se lleven el importe íntegro. De hecho, hay una tabla… que indica la intensidad de la falla. Así que esperaría que la primera multa fuera entre 5 y 20 millones de euros”, sugiere.

“Tomará un poco más de tiempo pasar por todo el procedimiento porque ahora corresponde a los tribunales decidir si los contenidos son ilegales o no. Sin embargo, estoy bastante seguro de que son ilegales porque ya han sido objeto de decisiones judiciales”.

“Había estado presionando a la BfJ y al ministro durante los últimos siete meses”, agrega. “Y en realidad porque pensé que la falla sistemática había sido obvia, con todo tipo de delitos cometidos en Twitter, incluida la pornografía infantil, que tampoco se eliminó sistemáticamente en el pasado. Y lo mismo ocurre con la mayoría de los casos de difamación, especialmente aquellos en los que la legitimidad de un tuit no se puede juzgar solo por el contenido del tuit en sí, donde hay que explorar cuál es la verdad cuando se difunde la difamación en Twitter.

“Y lo que vimos en el pasado es que Twitter decidió no tomarse el trabajo de pedir a los usuarios ninguna prueba de lo que se quedan… a pesar de que lo están haciendo otras redes sociales, como Google, o [other social] redes en Alemania.”

Nadie sugeriría que Twitter, antes de Musk, estaba haciendo un trabajo perfecto de moderación de contenido. Lejos de ahi. Y sigue siendo curioso que Alemania no haya perseguido a ninguna empresa de redes sociales por no cumplir con los requisitos de eliminación de contenido de NetzDG hasta ahora (después de todo, la ley ha estado en vigor desde 2017).

Pero si Musk ha hecho algo rápido es quemar la confianza de los reguladores y los legisladores, al hacer cosas como destripar recursos para la moderación de contenido y despedir al personal de políticas cuyo trabajo era entablar un diálogo con los reguladores sobre cuestiones de discurso impugnadas para presionar el caso de la compañía. lo que significa que las instituciones de las que le encanta burlarse tienen pocos recursos más que asumir lo peor y seguir aplicando la ley.

Se contactó a la BfJ para hacer comentarios.

La oficina de prensa de Twitter respondió automáticamente con un emoji de caca en respuesta a una solicitud de comentarios enviada por correo electrónico.


Source link
Salir de la versión móvil