Se insta a Meta a pagar reparaciones por el papel de Facebook en el genocidio de los rohingya

Se insta a Meta a pagar reparaciones por el papel de Facebook en el genocidio de los rohingya

Meta se enfrenta a un nuevo llamado para pagar reparaciones al pueblo rohingya por el papel de Facebook en la incitación a la violencia étnica en Myanmar.

A nuevo reporte por Amnistía Internacional, que proporciona lo que llama un “primer análisis profundo de derechos humanos de este tipo” del papel desempeñado por Meta (también conocido como Facebook) en las atrocidades perpetradas contra los rohingya en 2017, ha encontrado la contribución del gigante tecnológico al genocidio no fue simplemente el de una “plataforma pasiva y neutral” que respondió de manera inadecuada a una gran crisis, como la compañía ha tratado de afirmar, sino que el modelo comercial central de Facebook, los anuncios conductuales, fueron responsables de incitar activamente el odio. con fines de lucro

“Los algoritmos de modelado de contenido de Meta amplificaron y promovieron proactivamente contenido en la plataforma de Facebook que incitaba a la violencia, el odio y la discriminación contra los rohingya”, concluye Amnistía, señalando con el dedo culpable a su modelo de negocio basado en el seguimiento, también conocido como “perfil invasivo y publicidad”, que dice que se alimenta de “contenido incendiario, divisivo y dañino”; una dinámica que implica a Facebook por incitar activamente a la violencia contra los rohingya como resultado de su priorización de la participación con fines de lucro.

En 2017, @Meta impulsó el odio contra los rohingya en el @Facebook plataforma. Ahora, un grupo de jóvenes refugiados rohingya ha presentado una denuncia de derechos humanos contra la empresa por su papel en la violencia contra su comunidad.

Esto es lo que está pasando 👇https://t.co/ix8UdKJ76b

— Amnistía Internacional (@amnistía) 29 de septiembre de 2022

Los investigadores de derechos humanos de la ONU advirtieron en 2018 que Facebook estaba contribuyendo a la propagación del discurso de odio y la violencia contra la minoría musulmana local de Myanmar. El gigante tecnológico llegó a aceptar que era “demasiado lento para evitar la desinformación y el odio” difundiéndose en su plataforma. Sin embargo, no ha aceptado la acusación de que su uso de algoritmos diseñados para maximizar la participación fue un potente combustible para la violencia étnica como resultado de la preferencia de sus sistemas publicitarios por amplificar la polarización y la indignación, lo que llevó a la plataforma a optimizar el discurso de odio.

Amnistía dice que su informe, que se basa en entrevistas con refugiados rohingya, ex empleados de Meta, grupos de la sociedad civil y otros expertos en la materia, también se basa en nuevas pruebas obtenidas de documentos filtrados por la denunciante de Facebook, Frances Haugens, el año pasado, también conocidos como los documentos de Facebook. – que dice proporciona “una nueva comprensión impactante de la verdadera naturaleza y el alcance de la contribución de Meta a los daños sufridos por los rohingya”.

“Esta evidencia muestra que los algoritmos centrales de modelado de contenido que impulsan la plataforma de Facebook, incluidas sus funciones de suministro de noticias, clasificación y recomendación, amplifican y distribuyen activamente contenido que incita a la violencia y la discriminación, y entregan este contenido directamente a las personas con mayor probabilidad. actuar ante tal incitación”, escribe en un resumen ejecutivo a la informe de 74 páginas.

“Como resultado, la moderación del contenido por sí sola es intrínsecamente inadecuada como solución a los daños amplificados algorítmicamente”, continúa. “Los documentos internos de Meta reconocen estas limitaciones, con un documento de julio de 2019 que dice: ‘Solo tomamos medidas contra aproximadamente el 2% del discurso de odio en la plataforma’. Otro documento revela que parte del personal de Meta, al menos, reconoce las limitaciones de la moderación de contenido. Como dice un memorando interno con fecha de diciembre de 2019: “Nunca eliminaremos todo lo dañino de un medio de comunicación utilizado por tantos, pero al menos podemos hacer lo mejor que podamos para dejar de magnificar el contenido dañino dándole una distribución no natural”.

“Este informe revela además que Meta ha sido consciente durante mucho tiempo de los riesgos asociados con sus algoritmos, pero no actuó adecuadamente en respuesta. Los estudios internos que se remontan a 2012 han indicado consistentemente que los algoritmos de modelado de contenido de Meta podrían provocar daños graves en el mundo real. En 2016, antes de las atrocidades de 2017 en el estado norteño de Rakhine, la investigación interna de Meta reconoció claramente que ‘[o]Nuestros sistemas de recomendación aumentan el problema del extremismo. Estos estudios internos podrían y deberían haber llevado a Meta a implementar medidas efectivas para mitigar los riesgos para los derechos humanos asociados con sus algoritmos, pero la empresa no actuó repetidamente”.

‘Búsqueda implacable de ganancias’

Amnistía dice que los documentos de Facebook también muestran que Meta ha seguido ignorando los riesgos generados por sus algoritmos de modelado de contenido en “la búsqueda incesante de ganancias”, y su resumen ejecutivo cita un memorando interno con fecha de agosto de 2019 en el que un ex empleado de Meta escribe: “ Tenemos evidencia de una variedad de fuentes de que el discurso de odio, el discurso político divisivo y la información errónea en Facebook y la familia de aplicaciones están afectando a las sociedades de todo el mundo. También tenemos evidencia convincente de que la mecánica central de nuestro producto, como la viralidad, las recomendaciones y la optimización para la participación, son una parte importante de por qué estos tipos de discurso prosperan en la plataforma”.

“El análisis de Amnistía Internacional muestra cómo los algoritmos de modelado de contenido de Meta y las prácticas comerciales imprudentes facilitaron y permitieron la discriminación y la violencia contra los rohingya”, continúa. “Los algoritmos de Meta contribuyeron directamente al daño al amplificar el contenido anti-rohingya dañino, incluida la defensa del odio contra los rohingya. También contribuyeron indirectamente a la violencia en el mundo real contra los rohingya, incluidas las violaciones del derecho a la vida, el derecho a no ser torturado y el derecho a una vivienda adecuada, al permitir, facilitar e incentivar las acciones del ejército de Myanmar. Además, Meta fracasó por completo en participar en la diligencia debida adecuada en materia de derechos humanos con respecto a sus operaciones en Myanmar antes de las atrocidades de 2017. Este análisis deja poco lugar a dudas: Meta contribuyó sustancialmente a los impactos adversos sobre los derechos humanos sufridos por los rohingya y tiene la responsabilidad de proporcionar a los sobrevivientes un remedio efectivo”.

Meta se ha resistido a los llamados a pagar reparaciones a (al menos) cientos de miles de refugiados rohingya obligados a huir del país desde agosto de 2017 bajo una campaña de violencia, violación y asesinato perpetrada por la junta militar de Myanmar. y se enfrenta demanda colectiva legal de los refugiados rohingya que están demandando a la compañía en los EE. UU. y el Reino Unido, buscando miles de millones en daños por su papel en la incitación al genocidio.

Amnistía ha sumado su voz a los llamados para que Meta pague reparaciones a los refugiados.

Su informe señala que Meta ha negado anteriormente las solicitudes de fondos de apoyo de los grupos de refugiados rohingya, como uno de los grupos de refugiados en Cox’s Bazar, Bangladesh, pidiéndole que financie un proyecto educativo de $ 1 millón en los campamentos, al decir: “Facebook no participar directamente en actividades filantrópicas”.

“La presentación de Meta de la búsqueda de reparación por parte de las comunidades rohingya como una solicitud de caridad retrata una comprensión profundamente defectuosa de las responsabilidades de derechos humanos de la empresa”, argumenta Amnistía en el informe, y agrega: “A pesar de su reconocimiento parcial de que desempeñó un papel en la violencia de 2017 contra los rohingya, hasta la fecha Meta no ha proporcionado un remedio efectivo a las comunidades rohingya afectadas”.

Al hacer una serie de recomendaciones en el informe, Amnistía pide a Meta que trabaje con los sobrevivientes y las organizaciones de la sociedad civil que los apoyan para brindar “un remedio efectivo a las comunidades rohingya afectadas”, incluida la financiación total de la programación educativa solicitada por las comunidades rohingya que son parte de una denuncia contra la empresa presentada por refugiados en virtud de las Líneas Directrices de la OCDE para Empresas Multinacionales a través del Punto Nacional de Contacto de Irlanda.

Amnistía también pide a Meta que adopte la debida diligencia en materia de derechos humanos sobre los impactos de su modelo de negocio y sus algoritmos, y que cese la recopilación de “datos personales invasivos que socavan el derecho a la privacidad y amenazan una serie de derechos humanos”, según su informe. lo expresa, instándolo a poner fin a la práctica de la publicidad basada en el seguimiento y adoptar alternativas menos dañinas, como la publicidad contextual.

También hace un llamado a los reguladores y legisladores que supervisan el negocio de Meta en los EE. UU. y la UE para prohibir la publicidad dirigida basada en el seguimiento que se basa en prácticas “invasivas” o que involucran el procesamiento de datos personales; y regular las empresas de tecnología para garantizar que los algoritmos de modelado de contenido no se basen en la creación de perfiles de forma predeterminada, y deben requerir una opción de aceptación (en lugar de una opción de exclusión), con consentimiento para optar por ser “dado libremente, específico, informado e inequívoco”. ”, haciéndose eco de los llamamientos de algunos legisladores de la UE.

Se contactó a Meta para obtener una respuesta al informe de Amnistía. Un portavoz de la compañía envió esta declaración, atribuida a Rafael Frankel, director de políticas públicas para mercados emergentes, Meta APAC:

“Meta se solidariza con la comunidad internacional y apoya los esfuerzos para que el Tatmadaw rinda cuentas por sus crímenes contra el pueblo rohingya. Con ese fin, hemos realizado revelaciones de datos voluntarias y legales al Mecanismo de Investigación de las Naciones Unidas sobre Myanmar y Gambia, y también estamos participando actualmente en el proceso de quejas de la OCDE. Nuestro trabajo de seguridad e integridad en Myanmar sigue guiado por los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales, incluida la Misión de Investigación de las Naciones Unidas sobre Myanmar; la Evaluación de impacto sobre los derechos humanos que encargamos en 2018; así como nuestra gestión continua de riesgos de derechos humanos”.

El informe de Amnistía también advierte que los hallazgos de lo que llama “el flagrante desprecio por los derechos humanos de Meta” no solo son relevantes para los sobrevivientes rohingya, ya que dice que las plataformas de la compañía corren el riesgo de contribuir a “graves abusos contra los derechos humanos nuevamente”.

“Ya, desde Etiopía hasta la India y otras regiones afectadas por el conflicto y la violencia étnica, Meta representa un peligro real y presente para los derechos humanos. Se necesitan reformas urgentes y de amplio alcance para garantizar que la historia de Meta con los rohingya no se repita en otros lugares”, agrega.




Source link