Ícono del sitio La Neta Neta

Meta y Sama se enfrentan a acciones legales en Kenia por supuestas malas condiciones laborales

Meta y Sama se enfrentan a acciones legales en Kenia por supuestas malas condiciones laborales

Meta y Lo mismosu principal subcontratista para la moderación de contenido en África, se enfrenta a una demanda en Kenia por supuestas condiciones laborales inseguras e injustas si no cumple con 12 demandas sobre condiciones laborales que se le han presentado.

Nzili and Sumbi Advocates, el bufete de abogados que representa a Daniel Motaung, un exempleado de Sama que fue despedido por organizar una huelga en 2019 debido a las malas condiciones laborales y salariales, en una carta de demanda vista por TechCrunch, acusó al subcontratista de violar varios derechos, entre ellos el de la salud y la privacidad del personal keniano e internacional.

Motaung supuestamente fue despedido por organizar la huelga y tratar de sindicalizar a los empleados de Sama. La firma de abogados ha dado a Meta y Sama 21 días (a partir del martes 29 de marzo) para responder a las demandas o enfrentar una demanda.

En la carta de demanda, la firma de abogados pedía a Meta y Sama que se adhirieran a las leyes laborales, de privacidad y de salud del país; contratar profesionales de la salud calificados y experimentados; y proporcionar a los moderadores un seguro de salud mental adecuado y una mejor compensación.

“Facebook subcontrata la mayor parte de este trabajo a empresas como Sama, una práctica que mantiene altos los márgenes de beneficio de Facebook pero a costa de la salud de miles de moderadores y la seguridad de Facebook en todo el mundo. Los moderadores de Sama informan sobre violaciones en curso, incluidas condiciones que son inseguras, degradantes y presentan un riesgo de trastorno de estrés postraumático (TEPT)”, dijeron los abogados de Motuang.

La demanda inminente sigue a un historia del tiempo que detallaba cómo Sama reclutó a los moderadores con el falso pretexto de que estaban aceptando trabajos en un centro de llamadas. Los moderadores de contenido, contratados de todo el continente, según la historia, solo se enteraron de la naturaleza de sus trabajos después de firmar contratos de trabajo y mudarse a su centro en Nairobi.

Los moderadores revisan las publicaciones de las redes sociales en todas sus plataformas, incluido Facebook, para eliminar a quienes perpetran y perpetúan el odio, la desinformación y la violencia.

Entre los muchos requisitos que se espera que cumplan los empleados está el de no revelar la naturaleza de sus trabajos a terceros. El salario de los moderadores de contenido en África, decía el artículo, es el más bajo del mundo. Sama se presenta a sí misma como una empresa ética de inteligencia artificial. La empresa aumentó el salario de los empleados después de la exposición.

El bufete de abogados alegó que Sama no les otorgó a Motaung y sus colegas el apoyo psicosocial adecuado y las medidas de salud mental, incluidos “descansos no planificados según sea necesario, particularmente después de la exposición a contenido gráfico”. La productividad de los empleados de Sama también se rastreó utilizando el software de Meta, para medir el tiempo de pantalla y el movimiento de los empleados durante las horas de trabajo. Sama les concedió “treinta minutos al día con un consejero de bienestar”.

“Sama y Meta no prepararon a nuestro cliente para el tipo de trabajo que iba a hacer y sus efectos. El primer video que recuerda haber moderado fue de una decapitación. Hasta ese momento, no se le había ofrecido ningún apoyo psicológico por adelantado”, dijo la firma de abogados.

Sama, en un correo publicado después de la exposición, negó cualquier irregularidad afirmando que es transparente durante su proceso de contratación y tiene una cultura que “prioriza la salud y el bienestar de los empleados.

“Entendemos que la moderación de contenido es un trabajo difícil pero esencial para garantizar la seguridad de Internet para todos, y es por eso que invertimos mucho en programas de capacitación, desarrollo personal y bienestar”, dijo Sama.

“Como empresa de tecnología global, socio y empleador, nos enorgullecemos de nuestra responsabilidad de ser transparentes y honestos. Es completamente inexacto sugerir que los empleados de Sama fueron contratados con falsos pretextos o que recibieron información inexacta sobre el trabajo de moderación de contenido”.

Misericordia Mutemi, quien lidera la acción legal, dijo: “Uso Facebook, como muchos kenianos, y es un lugar importante para discutir las noticias. Pero es por eso que este caso es tan importante”.

“La misma seguridad e integridad de nuestro proceso democrático en Kenia depende de un Facebook, que cuente con el personal adecuado y donde los moderadores de contenido, los trabajadores de primera línea contra el odio y la desinformación, tengan el apoyo que necesitan para protegernos a todos. Este no es un caso laboral común: las condiciones de trabajo de los moderadores de Facebook afectan a todos los kenianos”.

Un portavoz de Meta, en respuesta a las preguntas enviadas por TechCrunch, dijo: “Asumimos nuestra responsabilidad con las personas que revisan el contenido de Meta con seriedad y exigimos a nuestros socios que brinden pagos, beneficios y soporte líderes en la industria. También alentamos a los revisores de contenido a plantear problemas cuando se dan cuenta de ellos y realizar auditorías independientes con regularidad para garantizar que nuestros socios cumplan con los altos estándares que esperamos de ellos”.

Este artículo ha sido actualizado para incluir la respuesta de Meta.


Source link
Salir de la versión móvil