El principal subcontratista de Meta para la moderación de contenido en África, Sama, anunció el martes el cierre de su brazo de moderación de contenido en su centro en Kenia, citando la necesidad de optimizar las operaciones.
Esto ocurre meses después de que Sama y Meta fueran demandadas en el país de África Oriental por represión sindical y explotación, y solo unas semanas después de que otra demanda exigiera que Meta aumentara su capacidad de moderación de contenido en Kenia.
Tras el anuncio de Sama, 200 empleados, que representan el 3% de su equipo, serán despedidos a medida que la empresa abandone los servicios de revisión de contenido y se concentre en el trabajo de etiquetado (anotación de datos de visión artificial).
La empresa contrató moderadores de toda África, y se dice que el cierre del brazo deja una sección sin permisos de trabajo. Se pidió a los moderadores de Sama que revisaran las publicaciones de las redes sociales en todas sus plataformas, incluido Facebook, para eliminar a quienes perpetraban y perpetuaban el odio, la desinformación y la violencia.
Los informes indican que Sama alentó al personal afectado por el cierre a solicitar otras oportunidades laborales en sus oficinas de Kenia y Uganda.
“El clima económico actual requiere operaciones comerciales más eficientes y optimizadas”, dijo Sama, según un informe por el Financial Times, que dijo que el gigante de las redes sociales ha contratado a Majorel, con sede en Luxemburgo, para llenar el vacío.
La decisión de cancelar el contrato de Meta, que vence a fines de marzo, se produce meses después de que Daniel Motaung, un ciudadano sudafricano y ex moderador de contenido de Sama, presentara una demanda en Kenia el año pasado acusando a las dos empresas de trabajo forzoso y trata de personas. relaciones laborales injustas, destrucción de sindicatos y falta de provisión de apoyo psicosocial y de salud mental “adecuado”.
La decisión de Sama también se produce en un momento en que Meta se enfrenta a otra demanda en Kenia por afirmaciones de que el gigante de las redes sociales no ha empleado suficientes medidas de seguridad en Facebook, lo que, a su vez, ha alimentado conflictos que han provocado la muerte, incluso de 500.000 etíopes. durante la guerra de Tigray que terminó recientemente.
La demanda afirma que el sitio social amplificó el contenido odioso y no contrató suficiente personal, con comprensión de los idiomas locales, para moderar el contenido.
Source link