Ícono del sitio La Neta Neta

Facebook agrega nuevos límites para abordar la propagación del discurso de odio en Sri Lanka y Myanmar

Facebook agrega nuevos límites para abordar la propagación del discurso de odio en Sri Lanka y Myanmar

Como facebook Afrontando la propagación del discurso de odio en su plataforma, está introduciendo cambios que limitan la difusión de mensajes en dos países en los que ha sido objeto de críticas en los últimos años: Sri Lanka y Myanmar.

En una publicación de blog el jueves por la noche, Facebook dijo que estaba "agregando fricción" al reenvío de mensajes para los usuarios de Messenger en Sri Lanka, de modo que las personas solo pudieran compartir un mensaje en particular varias veces. El límite está actualmente establecido en cinco personas.

Esto es similar a un límite que Facebook introdujo en WhatsApp el año pasado. En la India, un usuario puede reenviar un mensaje a solo otras cinco personas en WhatsApp . En otros mercados, el límite llega a 20. Facebook dijo que algunos usuarios también habían solicitado esta función porque están hartos de recibir mensajes en cadena.

A principios de marzo, Sri Lanka lidió con la violencia de la mafia dirigida a su minoría musulmana. En medio de todo esto, los discursos de odio y los rumores comenzaron a extenderse como un incendio en los servicios de redes sociales, incluidos los operados por Facebook. El gobierno del país luego cerró brevemente el acceso de los ciudadanos a los servicios de redes sociales.

En Myanmar, las plataformas de medios sociales han enfrentado un desafío similar y duradero. En particular, se ha culpado a Facebook por permitir que el discurso de odio propague esa violencia avivada contra el grupo étnico rohingya. Los críticos han afirmado que los esfuerzos de la compañía en el país, donde no tenía una oficina local o empleados, simplemente no son suficientes.

En su publicación del blog, Facebook dijo que ha comenzado a reducir la distribución de contenido de personas en Myanmar que han violado sistemáticamente sus estándares comunitarios con publicaciones anteriores. Facebook dijo que utilizará los aprendizajes para explorar la expansión de este enfoque a otros mercados en el futuro.

"Al limitar la visibilidad de esta manera, esperamos mitigar el riesgo de daños y violencia fuera de línea", escribió en el blog Samidh Chakrabarti, directora de gestión de productos e integridad cívica, y Rosa Birch, directora de respuesta estratégica, en la publicación del blog.

En los casos en que identifica a individuos u organizaciones "más directamente promueve o involucra violencia", la compañía dijo que prohibiría esas cuentas. Facebook también está extendiendo el uso de AI para reconocer publicaciones que pueden contener violencia gráfica y comentarios que son "potencialmente violentos o deshumanizantes".

En el pasado, la red social ha prohibido grupos armados y cuentas administradas por los militares en Myanmar, pero ha sido criticada por reaccionar lentamente y, también, por promover una narrativa falsa que sugería que sus sistemas de inteligencia artificial se encargarían del trabajo.

El mes pasado, Facebook dijo que podía detectar el 65% del contenido del discurso de odio que eliminó de forma proactiva (basándose en los informes de los usuarios para el resto), en comparación con el 24% de hace un año. En el trimestre que terminó en marzo de este año, Facebook dijo que había eliminado 4 millones de mensajes de incitación al odio.

Facebook sigue enfrentando desafíos similares en otros mercados, como India, Filipinas e Indonesia. Después de una revuelta el mes pasado, Indonesia restringió el uso de Facebook, Instagram y WhatsApp en un intento por contener el flujo de información falsa.


Source link
Salir de la versión móvil