Facebook tiene ofreció un pequeño detalle sobre los pasos adicionales que está tomando para mejorar su capacidad de detectar y eliminar el discurso de odio y la desinformación electoral antes de las elecciones de Myanmar. Está previsto que se celebren elecciones generales en el país el 8 de noviembre de 2020.
El anuncio se produce casi dos años después de que la empresa admitiera un fracaso catastrófico para evitar que su plataforma fuera armada para fomentar la división e incitar a la violencia contra la minoría rohingya del país.
Facebook dice ahora que ha ampliado su política de desinformación con el objetivo de combatir la supresión de votantes y ahora eliminará la información “que podría conducir a la supresión de votantes o dañar la integridad del proceso electoral”, dando el ejemplo de una publicación que afirma falsamente a un candidato. es bengalí, no ciudadano de Myanmar, y por lo tanto no es elegible para presentarse.
“Trabajando con socios locales, desde ahora hasta el 22 de noviembre, eliminaremos la desinformación verificable y los rumores no verificables que se evalúe que tienen el potencial de suprimir el voto o dañar la integridad del proceso electoral”, escribe.
Facebook dice que está trabajando con tres organizaciones de verificación de hechos en el país, a saber: BOOM, AFP Fact Check y Fact Crescendo, después de presentar un programa de verificación de hechos allí en marzo.
En marzo de 2018, las Naciones Unidas advirtieron que se estaba abusando de la plataforma de Facebook para difundir discursos de odio y fomentar la violencia étnica en Myanmar. En noviembre de ese año, el gigante tecnológico se vio obligado a admitir que no había impedido que su plataforma fuera reutilizada como una herramienta para impulsar el genocidio, luego de que una investigación independiente condenatoria criticara su impacto en los derechos humanos.
Sobre el discurso de odio, que Facebook admite que podría suprimir la votación además de conducir a lo que describe como “daño inminente fuera de línea” (también conocido como violencia), el gigante tecnológico afirma haber invertido “significativamente” en “tecnologías de detección proactiva” que dice ayúdelo a “capturar contenido violatorio más rápidamente”, aunque sin cuantificar el tamaño de su inversión ni proporcionar más detalles. Solo señala que “también” utiliza IA para “identificar proactivamente el discurso de odio en 45 idiomas, incluido el birmano”.
La publicación del blog de Facebook ofrece una métrica para implicar progreso: la empresa afirma que en el segundo trimestre de 2020 tomó medidas contra 280 000 piezas de contenido en Myanmar por violaciones de sus Normas comunitarias que prohíben el discurso de odio, de las cuales el 97,8 % fue detectado proactivamente por sus sistemas antes de la se le informó el contenido.
“Esto es un aumento significativo desde el primer trimestre de 2020, cuando tomamos medidas contra 51,000 piezas de contenido por violaciones de discurso de odio, detectando el 83% de manera proactiva”, agrega.
Sin embargo, sin una mayor visibilidad del contenido que la plataforma de Facebook está amplificando, incluidos los factores específicos de cada país, como si la publicación de discursos de odio está aumentando en Myanmar a medida que se acercan las elecciones, no es posible entender qué volumen de discursos de odio está pasando por debajo del radar de Facebook. sistemas de detección y llegar a los globos oculares locales.
En un desarrollo más claramente detallado, Facebook señala que desde agosto, los anuncios electorales, temáticos y políticos en Myanmar han tenido que mostrar una etiqueta de divulgación ‘pagado por’. Dichos anuncios también se almacenan en un buscador Biblioteca de anuncios durante siete años, en una expansión de las autodenominadas ‘medidas de transparencia de anuncios políticos’ que Facebook lanzó hace más de dos años en los EE. UU. y otros mercados occidentales.
Facebook también dice que está trabajando con dos socios locales para verificar las páginas nacionales oficiales de Facebook de los partidos políticos en Myanmar. “Hasta ahora, más de 40 partidos políticos han recibido una insignia verificada”, escribe. “Esto proporciona una marca azul en la página de Facebook de un partido y facilita a los usuarios diferenciar una página de un partido político oficial real de las páginas no oficiales, lo cual es importante durante un período de campaña electoral”.
Otro cambio reciente que señala es un producto de ‘compartir contexto de imagen’, que se lanzó en junio, que según Facebook alerta a un usuario cuando intenta compartir una imagen que tiene más de un año y podría ser “potencialmente dañina o engañosa” (como una imagen que “puede estar cerca de violar las pautas de Facebook sobre contenido violento”).
“Las imágenes fuera de contexto a menudo se usan para engañar, confundir y causar daño. Con este producto, a los usuarios se les mostrará un mensaje cuando intenten compartir tipos específicos de imágenes, incluidas fotos que tengan más de un año y que puedan estar cerca de violar las pautas de Facebook sobre contenido violento. Advertimos a las personas que la imagen que están a punto de compartir podría ser dañina o engañosa y se activará mediante una combinación de inteligencia artificial (IA) y revisión humana”, escribe sin ofrecer ningún ejemplo específico.
Otro cambio que señala es la aplicación de un límite en el reenvío de mensajes a cinco destinatarios que Facebook introdujo en Sri Lanka en junio de 2019.
“Estos límites son un método comprobado para frenar la propagación de información errónea viral que tiene el potencial de causar daños en el mundo real. Esta función de seguridad está disponible en Myanmar y, en el transcurso de las próximas semanas, la pondremos a disposición de los usuarios de Messenger en todo el mundo”, escribe.
Sobre la interferencia electoral coordinada, el gigante tecnológico no tiene nada sustancial que compartir, más allá de su afirmación habitual de que está “trabajando constantemente para encontrar y detener campañas coordinadas que buscan manipular el debate público a través de nuestras aplicaciones”, incluidos los grupos que buscan hacerlo antes de un elección importante.
“Desde 2018, hemos identificado e interrumpido seis redes que participan en Comportamiento inauténtico coordinado en Birmania Estas redes de cuentas, páginas y grupos enmascaraban sus identidades para engañar a las personas sobre quiénes eran y qué estaban haciendo al manipular el discurso público y engañar a las personas sobre los orígenes del contenido”, agrega.
Al resumir los cambios, Facebook dice que “construyó un equipo dedicado a Myanmar”, que incluye personas “que pasan mucho tiempo en el terreno trabajando con socios de la sociedad civil que abogan por una variedad de cuestiones de derechos humanos y digitales”. a través de la sociedad diversa y multiétnica de Myanmar”, aunque claramente este equipo no está operando desde Myanmar.
Además, afirma que el compromiso con las partes interesadas regionales clave garantizará que el negocio de Facebook “responda a las necesidades locales”, algo en lo que la compañía fracasó demostrablemente en 2018.
“Seguimos comprometidos con el avance de los beneficios sociales y económicos de Facebook en Myanmar. Aunque sabemos que este trabajo continuará más allá de noviembre, reconocemos que las elecciones generales de Myanmar de 2020 serán un hito importante en el camino”, agrega Facebook.
No hay ninguna mención en su publicación de blog de acusaciones de que Facebook está obstruyendo activamente una investigación sobre el genocidio en Myanmar.
A principios de este mes, Tiempo informó que Facebook está utilizando la ley de EE. UU. para tratar de bloquear una solicitud de información relacionada con el uso de sus plataformas por parte de oficiales militares de Myanmar por parte de la nación de África Occidental, Gambia.
“Facebook dijo que la solicitud es ‘extraordinariamente amplia’, así como ‘indebidamente intrusiva o onerosa’. Pidiendo al Tribunal de Distrito de los EE. UU. para el Distrito de Columbia que rechace la solicitud, el gigante de las redes sociales dice que Gambia no logra ‘identificar cuentas con suficiente especificidad’”, informó Time.
“Gambia fue en realidad bastante específico, y llegó a nombrar a 17 funcionarios, dos unidades militares y docenas de páginas y cuentas”, agregó.
“Facebook también está en desacuerdo con el hecho de que Gambia está buscando información que se remonta a 2012, evidentemente sin reconocer dos ondas similares de atrocidades contra los rohingya ese año, y esa intención genocida no es espontánea, sino que se desarrolla con el tiempo”.
En otro acontecimiento reciente, se ha acusado a Facebook de torcer sus políticas de incitación al odio para ignorar las publicaciones incendiarias realizadas contra los inmigrantes musulmanes rohingya por individuos y grupos nacionalistas hindúes.
Él Wall Street Journal informó el mes pasado que el principal ejecutivo de políticas públicas de Facebook en India, Ankhi Das, se opuso a la aplicación de sus reglas de discurso de odio a T. Raja Singh, miembro del partido nacionalista hindú del primer ministro indio Narendra Modi, junto con al menos otros tres individuos nacionalistas hindúes y grupos marcados internamente por promover o participar en la violencia, citando fuentes de empleados actuales y anteriores de Facebook.
Actualizar: Facebook ha enviado la siguiente declaración sobre la divulgación de datos a la investigación de Gambia:
Facebook se opone al odio y la violencia, incluso en Myanmar, y apoya la justicia por crímenes internacionales. Estamos trabajando con el Mecanismo de Investigación Independiente de las Naciones Unidas para Myanmar, que tiene el mandato de recopilar evidencia con las salvaguardas adecuadas y ayudar en los esfuerzos de rendición de cuentas. A través de este trabajo, comenzamos a proporcionar legalmente datos al IIMM que conservamos en 2018. A medida que avanzan estas investigaciones, continuaremos coordinándonos con ellos para brindar información relevante mientras investigan crímenes internacionales en Myanmar.
Source link