Dueño de Twitter y autoproclamado “libertad de expresión absolutista“, Elon Musk, enfrenta un desafío legal en Alemania sobre cómo la plataforma maneja el discurso de odio antisemita.
Él demanda judicialque fue presentado ayer en el tribunal regional de Berlín por HateAid, un grupo que hace campaña contra el discurso de odio, y la Unión Europea de Estudiantes Judíos (EUJS), argumenta que Twitter, propiedad de Musk, no está aplicando sus propias reglas contra el contenido antisemita, incluido negación del holocausto.
La negación del Holocausto es un delito en Alemania, que tiene leyes estrictas que prohíben el discurso de odio antisemita, lo que convierte a la corte de Berlín en un escenario convincente para escuchar tal desafío.
“[A]Aunque Twitter prohíbe las hostilidades antisemitas en sus Reglas y Políticas, la plataforma deja mucho de ese contenido en línea. Incluso si la plataforma es alertada por los usuarios”, argumentan los litigantes. “Los estudios actuales demuestran que el 84 % de las publicaciones que contenían discursos de odio antisemita no fueron revisados por las plataformas de redes sociales, como se muestra en un estudio realizado por la Centro para contrarrestar el odio digital. Lo que significa que Twitter sabe que los judíos están siendo atacados públicamente en la plataforma todos los días y que el antisemitismo se está convirtiendo en algo normal en nuestra sociedad. Y que la respuesta de la plataforma no es en modo alguno adecuada”.
Por su parte, Musk ha afirmado repetidamente que Twitter respetará todas las leyes de los países en los que opera (incluidas las leyes de expresión europeas). Aunque aún no ha hecho ningún comentario público sobre esta demanda específica.
Desde que el CEO de Tesla se hizo cargo de Twitter a fines de octubre, ha reducido drásticamente el personal de Twitter, incluso en funciones de seguridad básicas como la moderación de contenido, y también ha recortado personal en las oficinas regionales de Europa, incluso en Alemania. Además, disolvió por completo el Consejo de Confianza y Seguridad de Twitter y restableció decenas de cuentas que anteriormente habían sido prohibidas por violar las reglas de Twitter, creando condiciones que parecen ideales para que el discurso de odio florezca sin control.
Durante los aproximadamente tres meses de Musk como CEO de Twitter, ha habido informes anecdóticos, y algunos estudios, que sugieren un aumento del odio en la plataforma. Si bien muchos ex usuarios han culpado a un aumento del odio y el abuso por abandonar la plataforma desde que asumió el control.
En particular, la demanda se centra en ejemplos de discursos de odio que se han publicado en Twitter durante los últimos tres meses desde que Musk estuvo a cargo, según Bloombergque informó sobre el litigio anteriormente.
Por lo tanto, parece una prueba legal interesante para Musk, ya que la demanda aplica una lente externa a cómo la plataforma está aplicando políticas contra el discurso de odio en una era de reconfiguración operativa errática (y drástica) bajo la supervisión del nuevo propietario.
Si bien el libertario multimillonario generalmente trata de desviar las críticas de que está llevando a Twitter a aguas tóxicas, a través de una combinación de negación, pesca de impulso, ataques dirigidos a los críticos y auto-engrandecimiento continuo (de lo que él presenta como un esfuerzo cuasi-neo-ilustrado para ser un sirviente del futuro de la civilización humana, al ‘liberar al pájaro’, como expresa su discurso de Twitter ‘reformas’), admitió un aumento temprano de odio en la plataforma en noviembre.
En ese momento, twitteó un gráfico para ilustrar la afirmación de que los ingenieros de Twitter habían logrado reducir las impresiones de incitación al odio a un tercio menos que los “niveles previos al pico” (como bautizó al repentino aumento del odio observado en el período inmediatamente posterior a su adquisición de Gorjeo). Aunque también sugirió que el aumento solo estaba vinculado a una pequeña cantidad de cuentas, en lugar de a una reducción más amplia en la eficacia de la moderación de contenido desde que asumió el control y se dispuso a romper el libro de reglas existente.
Si bien Musk parece disfrutar cultivando la impresión de que es un “absolutista de la libertad de expresión”, la verdad, como siempre con el vaquero del espacio, parece mucho menos binaria.
Por ejemplo, en Twitter ha tomado una serie de decisiones aparentemente unilaterales y arbitrarias sobre si censurar (o no) ciertas publicaciones y/o cuentas, incluida, inicialmente, desbanear a Kanye West (también conocido como Ye) y luego volver a banearlo por twittear. una imagen de una esvástica con una estrella de David; siendo este último un símbolo del judaísmo, el primero un emblema nazi.
O anular la prohibición de la cuenta del expresidente de EE. UU. Donald Trump, que fue suspendida después del violento ataque a la capital de EE. UU. por parte de los partidarios de Trump, pero negándose rotundamente a reincorporar al predicador de odio de InfoWars, Alex Jones, ya que Musk parece objetar la infame conspiración falsa de Jones de que los niños que murieron en el tiroteo en la escuela de Sandy Hook eran actores.
Otras decisiones tomadas por Musk en torno a la moderación del contenido de Twitter parecen estar impulsadas únicamente por su propio interés, como prohibir una cuenta que tuiteó la ubicación de su avión privado (al que denominó “coordenadas de asesinato”). El año pasado también suspendió a varios periodistas que informaron sobre el episodio porque argumentó que sus informes tenían las mismas implicaciones para su seguridad personal, antes de cambiar de rumbo ante una tormenta de críticas de que estaba censurando la prensa libre.
Sin embargo, cuando no está prohibiendo a los periodistas, Musk ha invitado literalmente a una serie de hackers cuidadosamente seleccionados para examinar documentos internos y publicar lo que él ha llamado los “archivos de Twitter”, en lo que parece un intento desnudo (pero muy tedioso) para dar forma a la narración sobre cómo el liderazgo anterior de la plataforma manejó la moderación del contenido y los problemas relacionados, como la entrada de agencias estatales que solicitan la eliminación de tweets, etc.; y arroje combustible a las teorías de conspiración conservadoras que afirman la prohibición sistemática de las sombras y/o la degradación de su contenido frente a las opiniones liberales.
(Mientras que real investigar realizado por Twitter, antes de Musk, al observar su amplificación algorítmica de los tweets políticos, se encontró que, por el contrario, sus IA en realidad dan más impulso a las opiniones de derecha, concluyendo: “En 6 de los 7 países estudiados, la derecha política dominante disfruta de una mayor amplificación algorítmica que la corriente principal de la izquierda política”. Pero, ¿a quién le importan los datos no seleccionados, verdad?)
Sobre el abuso y el odio, Musk también es bastante capaz de repartirlo él mismo en Twitter, utilizando su táctica de trolear con megáfonos y burlarse de los grupos vulnerables (o “wokism”) para arrojar carne roja a su base derechista a expensas de las personas que corren un riesgo desproporcionado de sufrir abusos, como las personas trans y no binarias de cuyos pronombres se burla deliberadamente.
Musk también se ha rebajado a tuitear y/o amplificar ataques dirigidos a individuos que han dado lugar a ataques abusivos por parte de sus seguidores, como el que obligó al exjefe de confianza y seguridad de Twitter, Yoel Roth, a huir de su propia casa. Entonces, ¿hipocresía sobre los riesgos de seguridad personal? Mucho.
Incluso un observador casual de Musk-Twitter seguramente concluiría que hay una falta de consistencia en la toma de decisiones del Jefe Twit, lo cual, si esta arbitrariedad se filtra en la aplicación irregular y parcial de las políticas de la plataforma, significa malas noticias para la confianza y la seguridad de Twitter. usuarios (y RIP para cualquier concepto de ‘salud conversacional’ en la plataforma).
Queda por ver si las inconsistencias de Musk también darán lugar a una orden judicial en Alemania que requiera que Twitter elimine el discurso de odio ilegal, a través de esta demanda HateAid-EUJS.
“Las acciones de Twitter se basan únicamente en sus propias reglas poco transparentes, y se basan en el hecho de que los usuarios no tienen posibilidad de apelar, por ejemplo, cuando se trata de no eliminar las incitaciones al odio”, argumenta Josephine Ballon, jefa de asuntos legales para HateAid en un comunicado.
“No ha habido un solo caso en el que una red social haya sido procesada por esto por las autoridades. Es por esto que la sociedad civil tiene que involucrarse, buscando formas de exigir la eliminación de dichos contenidos. Nosotros, como ONG, actuamos como representantes de las comunidades afectadas que son objeto de hostilidad e incitación al odio a diario. Por lo tanto, podemos generar presión sobre las plataformas a largo plazo”.
Curiosamente, la demanda no parece estar bajo la ley alemana de eliminación de discursos de odio de larga data, también conocida como NetzDG, que, al menos en papel, otorga a los reguladores el poder de sancionar plataformas hasta decenas de millones de dólares si no lo hacen rápidamente. eliminar el contenido ilegal que se les informa.
Pero, como señala Ballon, no ha habido ningún enjuiciamiento de NetzDG relacionado con infracciones de eliminación de contenido (aunque la aplicación de mensajería Telegram fue recientemente multado con una pequeña cantidad por infracciones relacionadas con no tener canales de denuncia adecuados o representación legal en el lugar).
Un abogado local con el que hablamos, que no está directamente involucrado en el caso HateAid-EUJS, sugirió que ha habido una especie de acuerdo tácito entre las autoridades federales y la empresa de redes sociales de que Alemania no hará cumplir NetzDG en el tema de moderación de contenido, también con un Atención a la regulación digital entrante de la UE, ya que la Ley de Servicios Digitales, que comenzará a aplicarse a finales de este año para plataformas más grandes, armoniza las reglas de gobernanza y presentación de informes de contenido en todo el bloque bajo un marco paneuropeo único que debería reemplazar el antiguo régimen alemán de regulación de la incitación al odio. .
Por su parte, los litigantes en este caso de incitación al odio contra Twitter dicen que quieren obtener claridad legal sobre si las personas (y los grupos de defensa) pueden demandar ante los tribunales por la eliminación de “contenido punible, antisemita e incitador”, como la negación del Holocausto. aun cuando no sean personalmente insultados o amenazados por el contenido.
En una pregunta frecuente sobre un página web detallando sus argumentos, explican [emphasis theirs]:
El tribunal decidirá si podemos exigir esto. Hasta la fecha, no está claro en qué medida los usuarios de Twitter, sobre la base de las Reglas y Políticas de Twitter, tienen derecho a exigir la eliminación de dicho contenido en los casos en que ellos mismos no se vean afectados. Creemos que Twitter tiene que cumplir con sus propias reglas de las que se jacta en los términos de su contrato: eliminar publicaciones antisemitas y asegurarse de que los judíos puedan sentirse seguros en la plataforma.
Con nuestra acción, hacemos cumplir a Twitter sus promesas contractuales. Creemos que las plataformas deben eliminar el contenido antisemita; obviamente, la plataforma debe estar obligada a hacerlo.
Si tienen éxito, dicen que esperan que sea más fácil para los usuarios hacer valer sus derechos de eliminación de contenido ilegal contra otras plataformas importantes también. Entonces podría haber implicaciones más amplias si la demanda prevalece.
“Con este proceso fundamental, queremos que los tribunales establezcan claramente que las plataformas como Twitter ya están obligadas a proteger a los usuarios de la violencia digital antisemita en función de sus propios acuerdos de uso”, agregan. “Tal juicio facilitará a los usuarios hacer valer sus derechos contra los principales operadores de plataformas en el futuro. El principio detrás de esto es simple: si los términos del contrato establecen que el discurso de odio está prohibido, entonces Twitter le debe al usuario eliminarlo. Esto podría ser aplicado, por ejemplo, por ONG como HateAid para hacer que Internet sea más seguro”.
Se contactó a Twitter para obtener una respuesta a la demanda, pero desde que Musk se hizo cargo, la plataforma ha dejado de tener una función de comunicaciones externas de rutina y aún no ha respondido a ninguna de las solicitudes de comentarios de TechCrunch. (Pero aún así preguntamos).
Vale la pena señalar que, antes de Musk, Twitter tampoco estaba ganando aplausos abrumadores por su éxito en la lucha contra el discurso de odio ilegal.
En noviembre, el más reciente Informe de la UE que monitorea el código contra el discurso de odio del bloque – un acuerdo voluntario al que Twitter y otras plataformas de redes sociales se han suscrito durante años – descubrió que, antes de la adquisición de Musk, Twitter estaba funcionando relativamente mal en comparación con otros signatarios cuando se trataba de responder rápidamente a los informes de incitación al odio ilegal. , y la Comisión informó que eliminó solo el 45,4 % de dicho contenido en 24 horas (frente a una tasa de eliminación agregada del 63,6 %). Mientras que, durante el período monitoreado del 28 de marzo al 13 de mayo, Twitter recibió el segundo mayor número de informes de discurso de odio ilegal (Facebook obtuvo la mayor cantidad), informando poco menos de 1100 informes. Por lo tanto, parecía estar alojando una cantidad relativamente grande de discurso de odio ilegal (frente a las plataformas de pares) y siguiendo a sus rivales en la rapidez con la que eliminó cosas tóxicas.
Por lo tanto, sin duda será interesante ver el estado de esas métricas cuando (o si) Twitter, propiedad de Musk, informe un nuevo lote de datos a la Comisión a finales de este año.