Los documentos internos de Facebook destacan sus problemas de moderación y desinformación

Los documentos internos de Facebook destacan sus problemas de moderación y desinformación

Se han publicado los Facebook Papers, un vasto tesoro de documentos proporcionados por la denunciante Frances Haugen a un consorcio de organizaciones de noticias. El informe, de Reuters, Bloomberg, The Washington Post y otros, pinta una imagen de una empresa que en repetidas ocasiones buscó priorizar el dominio y las ganancias sobre la seguridad del usuario. Sin embargo, esto fue así a pesar de que una gran cantidad de empleados advirtieron que el enfoque de la empresa en el compromiso ponía a los usuarios en riesgo de violencia en el mundo real.

El Washington Post, por ejemplo, afirma que, si bien el director ejecutivo de Facebook, Mark Zuckerberg, restó importancia a los informes de que el sitio amplificaba el discurso de odio en su testimonio ante el Congreso, era consciente de que el problema era mucho más amplio de lo declarado públicamente. Los documentos internos vistos por el Post afirman que la red social había eliminado menos del cinco por ciento de los discursos de odio y que los ejecutivos, incluido Zuckerberg, eran conscientes de que Facebook estaba polarizando a la gente. Las afirmaciones ya han sido refutadas por Facebook, que dice que los documentos han sido tergiversados.

Zuckerberg también está acusado de aplastar un plan para realizar una campaña de registro de votantes en español en los EE. UU. Antes de las elecciones de 2020. Dijo que el plan puede haber parecido “partidista”, y que el personal de WhatsApp posteriormente ofreció una versión diluida en asociación con agencias externas. Según los informes, el director ejecutivo también estuvo detrás de la decisión de no tomar medidas drásticas contra la información errónea de COVID-19 en las primeras etapas de la pandemia, ya que puede haber una “compensación material con MSI”. [Meaningful Social Interaction — an internal Facebook metric] impacto.” Facebook ha refutado la afirmación, diciendo que los documentos se han caracterizado erróneamente.

Reuters informó que Facebook ha desatendido en serie una serie de países en desarrollo, permitiendo que florezcan el discurso de odio y el extremismo. Eso incluye no contratar suficientes empleados que puedan hablar el idioma local, apreciar el contexto cultural y moderar efectivamente. El resultado es que la empresa tiene una fe injustificada en sus sistemas automáticos de moderación, que son ineficaces en países de habla no inglesa. Una vez más, Facebook ha refutado la acusación de que está descuidando a sus usuarios en esos territorios.

Una región específica que se destaca como motivo de preocupación es Myanmar, donde Facebook se ha hecho responsable de amplificar las tensiones locales. Un documento de 2020 sugiere que el sistema de moderación automática de la empresa no podía marcar los términos problemáticos en (idioma local) birmano. (Cabe señalar que, dos años antes, Facebook No actuar adecuadamente para prevenir disturbios civiles en Myanmar. se destacó en un informe de Business for Social Responsibility.)

De manera similar, se informa que Facebook no tenía las herramientas para detectar el discurso de odio en los idiomas etíopes de oromo o amárico. Facebook ha dicho que está trabajando para expandir su equipo de moderación de contenido y, en los últimos dos años, ha reclutado hablantes de oromo, amárico y birmano (así como varios otros idiomas).

Los New York Times, informa que la investigación interna de Facebook era consciente de que las funciones Me gusta y Compartir, elementos centrales de cómo funciona la plataforma, habían acelerado la propagación del discurso de odio. Un documento, titulado ¿Qué son los daños colaterales? Dice que si Facebook no soluciona estos problemas, la empresa “promoverá activamente (si no necesariamente conscientemente) este tipo de actividades”. Facebook dice que, nuevamente, estas declaraciones se basan en premisas incorrectas, y que sería ilógico que la empresa intentara dañar activamente a sus usuarios.

Bloomberg, mientras tanto, se ha centrado en el supuesto colapso de las métricas de participación de Facebook. Los jóvenes, un mercado objetivo clave para los anunciantes, pasan menos tiempo en la plataforma de Facebook, y menos adolescentes optan por registrarse. Al mismo tiempo, el número de usuarios puede aumentar artificialmente en estos grupos de edad, y los usuarios pueden optar por crear varias cuentas, “Finstas”, para separar sus personajes en línea para atender a diferentes grupos. Haugen alega que Facebook “ha tergiversado las métricas básicas ante inversores y anunciantes” y que las cuentas duplicadas están dando lugar a un “fraude generalizado” contra los anunciantes. Facebook dice que ya notifica a los anunciantes sobre el riesgo de que las compras lleguen a cuentas duplicadas en su Centro de ayuda y enumera el problema en sus presentaciones ante la SEC.

El fin de semana, Axios informó que Facebook Sir Nick Clegg advirtió que el sitio debería esperar “más titulares malos” en las próximas semanas. Entre el material disponible en los documentos de Facebook, otra ronda del testimonio de Frances Haugen en el Reino Unido hoy más tarde y los rumores de que se acercan más denunciantes, es probable que Facebook permanezca en los titulares durante algún tiempo.

Nota del editor: Este artículo apareció originalmente en Engadget.


Source link