Facebook da más detalles sobre sus esfuerzos contra el discurso de odio antes de las elecciones generales de Myanmar

La junta de ‘supervisión’ autodenominada de Facebook selecciona los primeros casos, la mayoría relacionados con el discurso de odio

Un facebook El organismo financiado por el gigante tecnológico que creó para distanciarse de decisiones de moderación de contenido engañosas y potencialmente dañinas para la reputación ha anunciado el primer paquete de casos que considerará.

En un comunicado de prensa en su sitio web, la Junta de Supervisión de Facebook (FOB) dice que examinó más de 20,000 presentaciones antes de resolver seis casos, uno de los cuales fue remitido directamente por Facebook.

Los seis casos con los que se elige para empezar son:

Envío de Facebook: 2020-006-FB-FBR

Un caso de Francia en el que un usuario publicó un video y el texto que lo acompañaba en un grupo de Facebook COVID-19, que se relaciona con afirmaciones sobre la agencia francesa que regula los productos para la salud “supuestamente rechazando la autorización para el uso de hidroxicloroquina y azitromicina contra COVID-19, pero autorizando correo promocional para remdesivir ”; con el usuario criticando la falta de una estrategia de salud en Francia y declarando “[Didier] La cura de Raoult “se está utilizando en otros lugares para salvar vidas”. Facebook dice que eliminó el contenido por violar su política sobre violencia e incitación. El video en cuestión obtuvo al menos 50,000 visitas y 1,000 acciones.

El FOB dice que Facebook indicó en su remisión que este caso “presenta un ejemplo de los desafíos que enfrenta al abordar el riesgo de daño fuera de línea que puede ser causado por la desinformación sobre la pandemia de COVID-19”.

Envíos de usuarios:

De las cinco presentaciones de usuarios que seleccionó el FOB, la mayoría (tres casos) están relacionadas con la eliminación de discursos de odio.

Un caso cada uno está relacionado con la política de desnudez y contenido para adultos de Facebook; ya su política sobre personas y organizaciones peligrosas.

Consulte a continuación las descripciones de la Junta de los cinco casos enviados por los usuarios:

  • 2020-001-FB-UA: Un usuario publicó una captura de pantalla de dos tweets del ex primer ministro de Malasia, Dr. Mahathir Mohamad, en los que el ex primer ministro declaró que “los musulmanes tienen derecho a estar enojados y matar a millones de franceses por las masacres del pasado” y “[b]Pero, en general, los musulmanes no han aplicado la ley del “ojo por ojo”. Los musulmanes no lo hacen. Los franceses no deberían. En cambio, los franceses deberían enseñar a su gente a respetar los sentimientos de los demás “. El usuario no agregó un título junto a las capturas de pantalla. Facebook eliminó la publicación por violar su política sobre El discurso del odio. El usuario indicó en su llamamiento a la Junta de Supervisión que quería dar a conocer las “palabras horribles” del ex primer ministro.
  • 2020-002-FB-UA: Un usuario publicó dos fotografías muy conocidas de un niño fallecido que yacía completamente vestido en una playa al borde del agua. El texto que lo acompaña (en birmano) pregunta por qué no hay represalias contra China por su trato a los musulmanes uigures, en contraste con los recientes asesinatos en Francia relacionados con las caricaturas. La publicación también se refiere a la crisis de refugiados sirios. Facebook eliminó el contenido por violar su El discurso del odio política. El usuario indicó en su apelación a la Junta de Supervisión que la publicación estaba destinada a estar en desacuerdo con las personas que piensan que el asesino tiene razón y enfatizar que las vidas humanas importan más que las ideologías religiosas.

  • 2020-003-FB-UA: Un usuario publicó supuestas fotos históricas que mostraban iglesias en Bakú, Azerbaiyán, con un texto adjunto que decía que Bakú fue construido por armenios y preguntaba dónde se habían ido las iglesias. El usuario afirmó que los armenios están restaurando mezquitas en su tierra porque es parte de su historia. El usuario dijo que los “т.а.з.и.к.и” están destruyendo iglesias y no tienen historia. El usuario declaró que están en contra de la “agresión azerbaiyana” y el “vandalismo”. El contenido fue eliminado por violar las El discurso del odio política. El usuario indicó en su apelación a la Junta de Supervisión que su intención era demostrar la destrucción de monumentos culturales y religiosos.

  • 2020-004-IG-UA: Una usuaria de Brasil publicó una imagen en Instagram con un título en portugués que indicaba que era para crear conciencia sobre los signos del cáncer de mama. Ocho fotografías dentro de la imagen mostraron síntomas de cáncer de mama con las correspondientes explicaciones de los síntomas debajo. Cinco de las fotografías incluían pezones femeninos visibles y descubiertos. Las tres fotografías restantes incluían senos femeninos, con los pezones fuera de plano o cubiertos por una mano. Facebook eliminó la publicación por violar su política sobre desnudez adulta y actividad sexual. La publicación tiene un fondo rosa, y la usuaria indicó en un comunicado a la Junta de Supervisión que fue compartida como parte de la campaña nacional “Octubre Rosa” para la prevención del cáncer de mama.

  • 2020-005-FB-UA: La función “En este día” de Facebook le solicitó a un usuario en los EE. UU. Que compartiera un “recuerdo” en forma de publicación que el usuario hizo hace dos años. El usuario volvió a compartir el contenido. La publicación (en inglés) es una supuesta cita de Joseph Goebbels, el Ministro de Propaganda del Reich en la Alemania nazi, sobre la necesidad de apelar a las emociones y los instintos, en lugar del intelecto, y sobre la falta de importancia de la verdad. Facebook eliminó el contenido por violar su política sobre personas y organizaciones peligrosas. El usuario indicó en su apelación a la Junta de Supervisión que la cita es importante ya que el usuario considera que la actual presidencia de Estados Unidos está siguiendo un modelo fascista

Los comentarios públicos sobre los casos se pueden enviar a través del sitio web de la FOB, pero solo durante siete días (cerrando a las 8:00 hora estándar del este el martes 8 de diciembre de 2020).

El FOB dice que “espera” decidir sobre cada caso, y “que Facebook haya actuado sobre esta decisión”, dentro de los 90 días. Por lo tanto, los primeros ‘resultados’ del FOB, que solo comenzaron a revisar casos en octubre, es casi seguro que no lleguen antes de 2021.

Los paneles compuestos por cinco miembros de la FOB, incluido al menos uno de la región “implicado en el contenido”, serán los responsables de decidir si las piezas específicas de contenido en cuestión deben permanecer abajo o volver a colocarse.

La subcontratación por parte de Facebook de un subconjunto increíblemente pequeño de consideraciones de moderación de contenido a un subconjunto de su llamada ‘Junta de Supervisión’ ha atraído muchas críticas (incluida la inspiración de una entidad no oficial reflejada que se autodenomina la Junta de Supervisión Real), y no poco cinismo.

Sobre todo porque está financiado en su totalidad por Facebook; estructurado como Facebook pretendía que estuviera estructurado; y con miembros elegidos a través de un sistema ideado por Facebook.

Si lo que está buscando es un cambio radical, el FOB no lo es.

La entidad tampoco tiene poder para cambiar la política de Facebook, solo puede emitir recomendaciones (que Facebook puede optar por ignorar por completo).

Su cometido tampoco se extiende a poder investigar cómo el modelo de negocio de búsqueda de atención de Facebook influye en los tipos de contenido que sus algoritmos amplifican o deprimen.

Y el enfoque limitado en el contenido eliminado, en lugar del contenido que ya está permitido en la red social, sesga su alcance, como hemos señalado antes.

Por lo tanto, no encontrará a la junta haciendo preguntas difíciles sobre por qué los grupos de odio continúan floreciendo y reclutando en Facebook, por ejemplo, o cuestionando enérgicamente cuánto socorro ha brindado su amplificación algorítmica al movimiento antivaxx. Por diseño, el FOB se centra en los síntomas, no en la plataforma de tamaño nacional enferma de Facebook. La subcontratación de un subconjunto increíblemente pequeño de decisiones de moderación de contenido no puede significar nada más.

Con este Pantomima de responsabilidad encargada por Facebook, el gigante de la tecnología esperará generar un canal útil de publicidad que distraiga, centrada en decisiones de contenido específicas y ‘matizadas’, desviando preguntas más simples pero más contundentes sobre la naturaleza explotadora y abusiva del negocio de Facebook en sí, y la legalidad de su vigilancia masiva de los usuarios de Internet, mientras los legisladores de todo el mundo se enfrentan a cómo frenar a los gigantes tecnológicos.

La compañía quiere que el FOB replantee la discusión sobre las guerras culturales (y cosas peores) que el modelo de negocio de Facebook alimenta como un problema social, impulsando una ‘solución’ egoísta para la división social impulsada por algoritmos en la forma de unos pocos profesionales seleccionados que opinan en piezas individuales de contenido, dejándolo libre para seguir definiendo la forma de la economía de la atención a escala global.


Source link