A los principales socios de revisión de contenido de Meta en África se les ha impedido ofrecer servicios de moderación al gigante de las redes sociales, y no está claro quién está evaluando actualmente sus plataformas en el África subsahariana.
Un tribunal de Kenia, mediante medidas cautelares, prohibió a Meta contratar a su nuevo socio, Majorel, reservando ese papel para Sama, el subcontratista saliente, mientras tanto.
Sin embargo, ha trascendido que Sama envió a todos sus moderadores de contenido con licencia paga a partir del 1 de abril, dejando un vacío. Esto es después de que el tribunal impidió que Sama despidiera a más de 200 moderadores en su centro en Kenia después de que la compañía liquidara su brazo de moderación de contenido para concentrarse en el trabajo de etiquetado (anotación de datos de visión por computadora).
Algunos de los moderadores habían presentado una petición de emergencia a mediados de marzo alegando el despido ilegal por parte de la empresa y la inclusión en la lista negra de Meta y Majorel, lo que llevó a las órdenes que se confirmaron el jueves.
También salió a la luz que los contratos de los moderadores expiraron el 31 de marzo y que Sama no podía modificar los términos de empleo ya que las órdenes provisionales emitidas por el tribunal le impidieron realizar revisiones. De igual forma, el contrato de Sama con Meta finalizó en marzo.
El tribunal había ordenado a Sama que sirviera como el único proveedor de revisión de contenido de Meta hasta que se escuchara el caso. También prohibió al gigante de las redes sociales involucrar a cualquier otra parte, incluido Majorel, el reemplazo de Sama, para servir al África subsahariana.
En las órdenes, el tribunal impidió que Meta contratara “mediante empleo, subcontratación o cualquier otra forma, moderadores de contenido para servir a la región de África Oriental y Meridional a través del cuarto demandado (Majorel) o a través de cualquier otro agente, socio o representante, o en de cualquier manera, contratar moderadores para que hagan el trabajo que actualmente están realizando los moderadores contratados a través del tercer demandado (Sama) en espera de la audiencia de esta solicitud”.
En declaraciones juradas presentadas ante el tribunal y vistas por TechCrunch, Majorel denunció las órdenes que le prohíben ofrecer servicios de revisión de contenido a Meta diciendo que amenazan la continuidad de su negocio y el sustento de 200 moderadores que contrató después de establecer un centro en Kenia a fines del año pasado.
“Mientras permanezcan vigentes las órdenes provisionales emitidas por el tribunal que le impiden realizar la proyección de moderación de contenido, los ingresos que esperaba cubrir las inversiones realizadas por el cuarto peticionario (Majorel) están en riesgo y pueden perderse”. Sven Alfons A De Cauter, director de Majorel, dijo en la declaración jurada.
Además, Sama también dijo que su contrato con Meta había terminado y estaba acumulando una enorme factura salarial que mantenía a los moderadores sin trabajo.
Mientras Majorel y Sama esperan la determinación de la petición, Meta ha contratado a otros proveedores, avivando los reclamos de desacato a la corte por parte de Nzili y Sumbi Advocates, el bufete de abogados que representa a los peticionarios. No quedó claro de inmediato quiénes eran los otros subcontratistas, pero un portavoz de Meta le dijo a TechCrunch que estaba trabajando con “socios globales”.
Lo que no está claro es si los “socios globales” pueden filtrar adecuadamente el contenido escrito en cientos de idiomas utilizados en África, razón por la cual Sama y Majorel buscaron moderadores en todo el continente, incluidos Etiopía, Uganda, Somalia y Sudáfrica.
Sin embargo, no tener suficiente personal, con comprensión de los idiomas y el contexto locales, para moderar el contenido, ya es la base de otro caso que enfrenta Meta en Kenia, acusándolo de alimentar la guerra de Tigray que provocó la muerte de más de medio millón de personas. .
Los moderadores revisan las publicaciones de las redes sociales en las plataformas de Meta para eliminar el contenido que perpetra y perpetúa el odio, la desinformación y la violencia.
Source link