La Junta de Supervisión de Meta quiere que Facebook sea más transparente con las cuentas VIP

Meta fracasa en el intento de ser eliminado como parte de una demanda por explotación contra él y su socio moderador Sama en Kenia

Más drama está en marcha para la empresa matriz de Facebook, Meta, en el continente africano. Un tribunal de Kenia rechazó hoy la solicitud de Meta de ser eliminada como parte en una demanda presentada el año pasado contra ella y Sama, su principal subcontratista de moderación de contenido en África. Juntos, los dos están siendo acusados ​​de explotación y represión sindical.

Meta había tratado de distanciarse del caso, alegando que es una empresa extranjera que hace negocios en Kenia y que tiene un contrato con Sama pero que no es una empresa que opera en Kenia. Sin embargo, un fallo de hoy de Jacob Kariuki, juez de la corte de empleo y relaciones laborales de Kenia, determinó que Meta permanecerá como parte en el caso.

“Los nombres del segundo y tercer encuestados [Meta Platforms Inc and Meta platforms Ireland Ltd] no serán tachados en esta etapa”, dijo el juez durante el fallo de hoy. “Se rechaza la notificación de la moción”. Parece que, a pesar de que Meta no está incorporada en Kenia, algunos aspectos de cómo opera en el país lo hacen responsable independientemente. El fallo completo se publicará hoy o mañana.

Meta y Sama están siendo demandados en Kenia por Daniel Motaung, un ciudadano sudafricano, quien alega trabajo forzoso, explotación, trata de personas, relaciones laborales injustas, represión sindical y falta de apoyo psicosocial y de salud mental “adecuado”. Supuestamente, Motaung fue despedido por organizar una huelga en 2019 y tratar de sindicalizar a los empleados de Sama.

Después de que se presentó el caso, Meta solicitó que se cancelara la demanda, citando que no está incorporada en el país de África Oriental y que Motaung no era su empleado sino el de Sama.

Los moderadores de Sama brindan servicios de moderación de contenido en las plataformas de Meta, que incluyen Facebook, Instagram, Messenger y WhatsApp, para eliminar contenido que promueve el odio, la desinformación y la violencia. Otros clientes de Sama incluyen IA abiertaque ha contratado a Sama para que los trabajadores en Kenia ayuden a etiquetar el contenido tóxico y violento en el desarrollo de su chatbot de IA generativo ChatGPT.

Para complicar las cosas, a raíz de la demanda, Sama dijo en enero que cerraría su centro de moderación de contenido en Kenia, citando la necesidad de optimizar las operaciones.

Esta es una historia en desarrollo.


Source link