Facebook ha ofrecido un pequeño detalle sobre los pasos adicionales que está tomando para mejorar su capacidad de detectar y eliminar el discurso de odio y la desinformación electoral antes de las elecciones de Myanmar. Está previsto que se celebren elecciones generales en el país el 8 de noviembre de 2020.
El anuncio se produce casi dos años después de que la compañía admitiera un fracaso catastrófico para evitar que su plataforma se convirtiera en un arma para fomentar la división e incitar a la violencia contra la minoría rohingya del país.
Facebook dice ahora que ha ampliado su política de desinformación con el objetivo de combatir la supresión de votantes y ahora eliminará información “que podría conducir a la supresión de votantes o dañar la integridad del proceso electoral”, dando el ejemplo de una publicación que afirma falsamente a un candidato. es bengalí, no ciudadano de Myanmar y, por lo tanto, no puede presentarse.
“Trabajando con socios locales, entre ahora y el 22 de noviembre, eliminaremos la información errónea verificable y los rumores no verificables que se considera que tienen el potencial de suprimir el voto o dañar la integridad del proceso electoral”, escribe.
Facebook dice que está trabajando con tres organizaciones de verificación de datos en el país, a saber: BOOM, AFP Fact Check y Fact Crescendo, después de presentar un programa de verificación de datos allí en marzo.
En marzo de 2018, las Naciones Unidas advirtieron que se estaba abusando de la plataforma de Facebook para difundir discursos de odio y fomentar la violencia étnica en Myanmar. En noviembre de ese año, el gigante tecnológico se vio obligado a admitir que no había impedido que su plataforma fuera reutilizada como una herramienta para impulsar el genocidio, luego de que una investigación independiente condenatoria criticara su impacto en los derechos humanos.
Sobre el discurso de odio, que Facebook admite que podría suprimir la votación además de provocar lo que describe como “daño inminente fuera de línea” (también conocido como violencia), el gigante tecnológico afirma haber invertido “significativamente” en “tecnologías de detección proactiva” que dice ayúdelo a “detectar contenido infractor más rápidamente”, aunque sin cuantificar el tamaño de su inversión ni proporcionar más detalles. Solo señala que “también” utiliza la inteligencia artificial para “identificar proactivamente el discurso de odio en 45 idiomas, incluido el birmano”.
La publicación del blog de Facebook ofrece una métrica para implicar progreso: la compañía indicó que en el segundo trimestre de 2020 tomó medidas contra 280,000 piezas de contenido en Myanmar por violaciones de sus Normas comunitarias que prohíben el discurso de odio, de las cuales el 97.8% fueron detectadas de manera proactiva por sus sistemas antes de la se le informó el contenido.
“Esto es un aumento significativo desde el primer trimestre de 2020, cuando tomamos medidas contra 51,000 piezas de contenido por violaciones de discurso de odio, detectando el 83% de manera proactiva”, agrega.
Sin embargo, sin una mayor visibilidad del contenido que se amplifica la plataforma de Facebook, incluidos factores específicos del país, como si la publicación de discursos de odio está aumentando en Myanmar a medida que se acercan las elecciones, no es posible comprender qué volumen de discursos de odio está pasando por debajo del radar de Facebook sistemas de detección y alcance de los globos oculares locales.
En un desarrollo más claramente detallado, Facebook señala que desde agosto, los anuncios electorales, temáticos y políticos en Myanmar han tenido que mostrar una etiqueta de divulgación “pagado por”. Dichos anuncios también se almacenan en una biblioteca de anuncios con capacidad de búsqueda durante siete años, en una expansión de las autoproclamadas ‘medidas de transparencia de anuncios políticos’ que Facebook lanzó hace más de dos años en los EE. UU. Y otros mercados occidentales.
Facebook también dice que está trabajando con dos socios locales para verificar las páginas nacionales oficiales de Facebook de los partidos políticos en Myanmar. “Hasta ahora, más de 40 partidos políticos han recibido una insignia verificada”, escribe. “Esto proporciona una marca azul en la página de Facebook de un partido y facilita a los usuarios diferenciar una página oficial real de un partido político de las páginas no oficiales, lo cual es importante durante un período de campaña electoral”.
Otro cambio reciente que señala es un producto de ‘compartir el contexto de la imagen’, que se lanzó en junio, que según Facebook alerta a un usuario cuando intenta compartir una imagen que tiene más de un año y que podría ser “potencialmente dañina o engañosa” (como una imagen que “puede acercarse a violar las pautas de Facebook sobre contenido violento”).
“Las imágenes fuera de contexto se utilizan a menudo para engañar, confundir y causar daño. Con este producto, a los usuarios se les mostrará un mensaje cuando intenten compartir tipos específicos de imágenes, incluidas fotos que tienen más de un año y que pueden estar cerca de violar las pautas de Facebook sobre contenido violento. Advertimos a las personas que la imagen que están a punto de compartir podría ser dañina o engañosa se activará mediante una combinación de inteligencia artificial (IA) y revisión humana ”, escribe sin ofrecer ningún ejemplo específico.
Otro cambio que observa es la aplicación de un límite en el reenvío de mensajes a cinco destinatarios que Facebook introdujo en Sri Lanka en junio de 2019.
“Estos límites son un método probado para frenar la propagación de información errónea viral que tiene el potencial de causar daños en el mundo real. Esta función de seguridad está disponible en Myanmar y, en el transcurso de las próximas semanas, la pondremos a disposición de los usuarios de Messenger en todo el mundo ”, escribe.
Sobre la interferencia electoral coordinada, el gigante tecnológico no tiene nada sustancial que compartir, más allá de su afirmación habitual de que está “trabajando constantemente para encontrar y detener campañas coordinadas que buscan manipular el debate público en nuestras aplicaciones”, incluidos los grupos que buscan hacerlo antes de una elección importante.
“Desde 2018, hemos identificado e interrumpido seis redes que participan en un comportamiento inauténtico coordinado en Myanmar. Estas redes de cuentas, páginas y grupos enmascaraban sus identidades para engañar a las personas sobre quiénes eran y qué estaban haciendo manipulando el discurso público y engañando a las personas sobre el origen del contenido ”, agrega.
Al resumir los cambios, Facebook dice que ha “construido un equipo dedicado a Myanmar”, que señala que incluye a personas “que pasan un tiempo significativo en el terreno trabajando con socios de la sociedad civil que abogan por una variedad de cuestiones de derechos humanos y digitales a través de la sociedad diversa y multiétnica de Myanmar ”, aunque claramente este equipo no está operando fuera de Myanmar.
Además, afirma que el compromiso con las principales partes interesadas regionales garantizará que el negocio de Facebook “responda a las necesidades locales”, algo en lo que la empresa fracasó demostrablemente en 2018.
“Seguimos comprometidos con el avance de los beneficios sociales y económicos de Facebook en Myanmar. Aunque sabemos que este trabajo continuará más allá de noviembre, reconocemos que las elecciones generales de Myanmar de 2020 serán un hito importante en el camino ”, agrega Facebook.
En su publicación de blog no se mencionan acusaciones de que Facebook está obstruyendo activamente una investigación sobre el genocidio en Myanmar.
A principios de este mes, Time informó que Facebook está utilizando la ley estadounidense para tratar de bloquear una solicitud de información relacionada con el uso de sus plataformas por parte de oficiales militares de Myanmar por parte de la nación de África Occidental, Gambia.
“Facebook dijo que la solicitud es ‘extraordinariamente amplia’, así como ‘indebidamente intrusiva o onerosa’. Al pedir al Tribunal de Distrito de EE. UU. Para el Distrito de Columbia que rechace la solicitud, el gigante de las redes sociales dice que Gambia no ‘identifica cuentas con suficiente especificidad’ ”, informó Time.
“Gambia fue en realidad bastante específica, llegando a nombrar a 17 funcionarios, dos unidades militares y docenas de páginas y cuentas”, agregó.
“Facebook también se opone al hecho de que Gambia está buscando información que se remonta a 2012, evidentemente sin reconocer dos oleadas similares de atrocidades contra los rohingya ese año, y que la intención genocida no es espontánea, sino que se acumula con el tiempo”.
En otro desarrollo reciente, Facebook ha sido acusado de doblar sus políticas de incitación al odio para ignorar las publicaciones incendiarias hechas contra los inmigrantes musulmanes rohingya por individuos y grupos nacionalistas hindúes.
El Wall Street Journal informó el mes pasado que el principal ejecutivo de políticas públicas de Facebook en India, Ankhi Das, se opuso a aplicar sus reglas de discurso de odio contra T.Raja Singh, miembro del partido nacionalista hindú del primer ministro indio Narendra Modi, junto con al menos otros tres Individuos y grupos nacionalistas hindúes marcados internamente por promover o participar en la violencia, citando fuentes de empleados actuales y anteriores de Facebook.
Source link