La corte de Kenia allana el camino para una demanda que alega que Facebook desempeñó un papel en el conflicto de Tigray en Etiopía

La corte de Kenia allana el camino para una demanda que alega que Facebook desempeñó un papel en el conflicto de Tigray en Etiopía

Los etíopes que demandaron a Meta por no moderar adecuadamente el contenido que amplificó la violencia que dejó más de medio millón de muertos durante la guerra de Tigray recibieron el visto bueno para servir al gigante de las redes sociales fuera de Kenia. este es el ultimo caso que busca obligar a Facebook a dejar de amplificar publicaciones violentas, de odio e incitantes.

Un tribunal de Kenia autorizó el jueves a los peticionarios para servir a Meta en California, EE. UU., después de que no pudieron rastrear la oficina local del gigante de las redes sociales. Resultó que si bien Meta tiene operaciones comerciales en Kenia, no tiene una oficina física, ya que sus empleados locales trabajan de forma remota.

La decisión sienta las bases para el inicio de una demanda presentada en diciembre del año pasado por el grupo de derechos humanos de Kenia Instituto Katiba y los investigadores etíopes Fisseha Tekle y Abrham Meareg. El padre de Meareg, el profesor Meareg Amare Abrha, fue asesinado durante la guerra de Tigray después de que las publicaciones en Facebook criticaran y llamaran a la violencia contra él, alega la demanda.

Los peticionarios buscan obligar a Meta a detener el odio viral en Facebook, aumentar la revisión de contenido en el centro de moderación en Kenia y crear un fondo de compensación de $ 1.6 mil millones.

Los peticionarios alegan que el algoritmo de Facebook amplificó las publicaciones de odio e incitación que atrajeron más interacciones y mantuvieron a los usuarios conectados por más tiempo.

Afirman que Facebook “no invirtió lo suficiente” en la revisión de contenido humano en el centro de Kenia, arriesgando vidas al ignorar, rechazar o actuar con lentitud para eliminar publicaciones que también violaban los estándares de su comunidad.

Meareg dijo que su familia tiene experiencia de primera mano de cómo la moderación de contenido defectuosa podría poner en peligro vidas y dividir familias.

Afirma que su padre fue asesinado después de que Meta no cumplió con las repetidas solicitudes para eliminar publicaciones dirigidas a él y a otros tigrayanos, a medida que los llamados a la masacre contra el grupo étnico se difundieron en línea y fuera de línea. La Guerra de Tigray, que duró dos años, estalló en noviembre de 2020 después de que el ejército etíope se enfrentara a las fuerzas de Tigray. dejando 600.000 muertos.

“A mi padre lo mataron porque las publicaciones en Facebook lo identificaron, lo acusaron falsamente, filtraron la dirección de donde vive y pidieron su muerte”, dijo Meareg, exestudiante de doctorado, y agregó que se vio obligado a huir del país y buscar asilo en los Estados Unidos después de la muerte de su padre.

“El caso de mi padre no es aislado. En el momento de las publicaciones y su muerte, Facebook estaba saturado de publicaciones odiosas, incitantes y peligrosas… han ocurrido muchas otras tragedias como la nuestra”, dijo.

Meta se negó a comentar.

Meareg dice que informó las publicaciones que encontró, pero sus informes fueron rechazados o ignorados. Afirma haber denunciado varias publicaciones en 2021, incluida una que contenía cadáveres, y algunas de esas publicaciones todavía estaban en el sitio social cuando fue a la corte en diciembre pasado.

Criticó la revisión de contenido de Facebook y dijo que el centro en Kenia tenía solo 25 moderadores responsables del contenido en amárico, tigrinya y oromo, lo que dejaba fuera otros 82 idiomas sin personal para moderar.

Meta le dijo anteriormente a TechCrunch que empleó equipos y tecnología para ayudarlo a eliminar el discurso de odio y la incitación, y que tenía socios y personal con conocimiento local para ayudarlo a desarrollar métodos para detectar contenido infractor.

“Se ha permitido que crezca una falla dentro de Facebook, transformándola en un arma para propagar el odio, la violencia e incluso el genocidio”, dijo Martha Dark, directora de Foxglove, una ONG de justicia tecnológica que apoya el caso. “Meta podría tomar medidas reales, hoy, para desconectar el odio que se propaga en Facebook”.

Esta no es la primera vez que se acusa a Meta de fomentar la violencia en Etiopía. denunciante Frances Haugen lo acusó previamente de “fomentar literalmente la violencia étnica” en Etiopía, y una Investigación de testigos globales también señaló que Facebook no detectó el discurso de odio en el idioma principal de Etiopía.

Actualmente, las plataformas de redes sociales, incluido Facebook, permanecen bloqueadas en Etiopía desde principios de febrero después de que los planes estatales para dividir la Iglesia Ortodoxa Etíope Tewhado provocaran protestas contra el gobierno.

Sumándose a los problemas de Meta en Kenia

Meta enfrenta tres juicios en Kenia.

La empresa y su socio de revisión de contenido en el África subsahariana, Sama, fueron demandados en Kenia en mayo pasado por explotación y represión sindical por parte de Daniel Motaung, ex moderador de contenido.

Motaung afirmó haber sido despedido por Sama por organizar una huelga de 2019 que buscaba sindicalizar a los empleados de Sama. Estaba demandando a Meta y Sama por trabajo forzoso, explotación, trata de personas, relaciones laborales injustas, ruptura de sindicatos y falta de provisión de apoyo psicosocial y de salud mental “adecuado”.

Meta buscó que se eliminara su nombre de la demanda, diciendo que Motaung no era su empleado y que el tribunal de Kenia no tenía jurisdicción sobre él. Sin embargo, no pudo detener la demanda después de que el tribunal dictaminara que tenía un caso que responder, ya que algunos aspectos de cómo opera la empresa en el país la hacen responsable. El gigante de las redes sociales ha apelado la decisión del tribunal.

A principios de este mes, Meta fue demandada junto con Sama y otro socio de revisión de contenido, Majorel, por 183 moderadores de contenido que alegaron que fueron despedidos ilegalmente y puestos en la lista negra. Los moderadores afirmaron que Sama los despidió ilegalmente después de que liquidó su brazo de revisión de contenido, y que Meta instruyó a su nuevo socio con sede en Luxemburgo, Majorel, para que incluyera en la lista negra a los ex moderadores de contenido de Sama.

Meta también buscó ser eliminada de este caso, pero la semana pasada, el tribunal de Kenia dijo que tenía jurisdicción sobre las disputas entre empleadores y empleados y “asuntos de supuesta terminación ilegal e injusta del empleo por motivos de despido” y que tenía poder ” para hacer cumplir la supuesta violación de los derechos humanos y las libertades fundamentales” de Meta, Sama y Majorel.


Source link