Facebook sobre el terreno en Kenia mientras la explotación de menores abunda en su plataforma

El organismo de ‘supervisión’ de Facebook anula cuatro derribos y emite una serie de sugerencias de políticas

La ‘Junta de Supervisión’ (FOB) autorreguladora de Facebook ha emitido su primer lote de decisiones sobre decisiones de moderación de contenido impugnadas casi dos meses después de elegir sus primeros casos.

Desde hace mucho tiempo, el FOB es parte del impulso de relaciones públicas de crisis de Facebook para distanciar su negocio del impacto de las controvertidas decisiones de moderación de contenido, mediante la creación de un organismo de revisión para manejar una pequeña fracción de las quejas que atraen sus eliminaciones de contenido. Comenzó a aceptar presentaciones para su revisión en octubre de 2020, y se ha enfrentado a críticas por su lentitud en despegar.

Anunciando Las primeras decisiones de hoy, el FOB revela que ha optado por mantener solo una de las decisiones de moderación de contenido tomadas anteriormente por Facebook, anulando cuatro de las decisiones del gigante tecnológico.

Las decisiones sobre los casos fueron tomadas por paneles de cinco miembros que incluían al menos un miembro de la región en cuestión y una combinación de géneros, según el FOB. La mayoría de la junta en pleno tuvo que revisar los hallazgos de cada panel para aprobar la decisión antes de que pudiera emitirse.

El único caso en el que la junta ha confirmado la decisión de Facebook de eliminar contenido es caso 2020-003-FB-UA – donde Facebook había eliminado una publicación bajo su Estándar Comunitario sobre Discurso de Odio que había usado la palabra rusa “тазики” (“taziks”) para describir a los azerbaiyanos, quienes, según el usuario, no tenían antecedentes en comparación con los armenios.

En los otros cuatro casos, la junta anuló las eliminaciones de Facebook, rechazando evaluaciones anteriores realizadas por el gigante tecnológico en relación con las políticas sobre incitación al odio, desnudez adulta, personas / organizaciones peligrosas y violencia e incitación. (Puede leer el esquema de estos casos en su sitio web.)

Cada decisión se relaciona con un contenido específico, pero la junta también ha emitido nueve recomendaciones de política.

Estos incluyen sugerencias que Facebook [emphasis ours]:

Crear una nueva Norma comunitaria sobre desinformación sanitaria, consolidando y aclarando las reglas existentes en un solo lugar. Esto debería definir términos clave como “desinformación”.
Adoptar medios menos intrusivos para hacer cumplir sus políticas de desinformación sanitaria. donde el contenido no alcanza el umbral de daño físico inminente de Facebook.
Aumentar la transparencia sobre cómo modera la desinformación sobre la salud, incluida la publicación de un informe de transparencia sobre cómo se han aplicado las Normas Comunitarias durante la pandemia de COVID-19. Esta recomendación se basa en los comentarios públicos que recibió la junta.
Asegúrese de que los usuarios siempre sean notificados de los motivos de cualquier aplicación de las Normas de la comunidad en su contra, incluida la regla específica que Facebook está aplicando. (La junta hizo dos recomendaciones políticas idénticas en este frente relacionadas con los casos que consideró, y señaló también en relación con el segundo caso de discurso de odio que “la falta de transparencia de Facebook dejó su decisión abierta a la creencia errónea de que la empresa eliminó el contenido porque el el usuario expresó una opinión con la que no estaba de acuerdo “).
Explicar y proporcionar ejemplos de la aplicación de términos clave de la política de Organizaciones y Personas Peligrosas., incluidos los significados de “elogio”, “apoyo” y “representación”. La Norma comunitaria también debería aconsejar mejor a los usuarios sobre cómo dejar en claro su intención cuando se habla de personas u organizaciones peligrosas.
Proporcionar una lista pública de las organizaciones y personas designadas como “peligrosas” según el Estándar comunitario de personas y organizaciones peligrosas. o, al menos, una lista de ejemplos.
Informar a los usuarios cuando se utiliza la aplicación automatizada para moderar su contenido, asegurarse de que los usuarios puedan apelar las decisiones automatizadas a un ser humano en ciertos casosy mejorar la detección automatizada de imágenes con superposición de texto para que las publicaciones que crean conciencia sobre los síntomas del cáncer de mama no se marquen incorrectamente para su revisión. Facebook también debería mejorar sus informes de transparencia sobre el uso de la aplicación automatizada.
Revisar las Pautas de la comunidad de Instagram para especificar que se puede demostrar que los pezones femeninos aumentan la conciencia sobre el cáncer de mama y aclarar que cuando hay inconsistencias entre las Pautas de la comunidad de Instagram y las Normas de la comunidad de Facebook, estas últimas tienen prioridad.

Donde ha anulado las eliminaciones de Facebook, la junta dice que espera que Facebook restaure las partes específicas del contenido eliminado dentro de siete días.

Además, la junta escribe que Facebook también “examinará si el contenido idéntico con un contexto paralelo asociado con las decisiones de la junta debería permanecer en su plataforma”. Y dice que Facebook tiene 30 días para responder públicamente a sus recomendaciones de políticas.

Por lo tanto, sin duda será interesante ver cómo responde el gigante tecnológico a la larga lista de ajustes de políticas propuestos, tal vez especialmente las recomendaciones para una mayor transparencia (incluida la sugerencia de informar a los usuarios cuando el contenido ha sido eliminado únicamente por sus IA) y si Facebook se complace en alinearse completamente con la guía de políticas emitida por el vehículo de autorregulación (o no).

Facebook creó la estructura y los estatutos de la junta y nombró a sus miembros, pero ha fomentado la idea de que es “independiente” de Facebook, aunque también financia FOB (indirectamente, a través de una fundación que creó para administrar el organismo).

Y aunque la Junta afirma que sus decisiones de revisión son vinculantes para Facebook, no existe tal requisito para que Facebook siga sus recomendaciones de política.

También es notable que los esfuerzos de revisión de la FOB se centren por completo en las eliminaciones, en lugar de en las cosas que Facebook elige alojar en su plataforma.

Dado todo eso, es imposible cuantificar cuánta influencia ejerce Facebook en las decisiones de la Junta de Supervisión de Facebook. E incluso si Facebook se traga todas las recomendaciones de políticas antes mencionadas, o más probablemente emite una línea de relaciones públicas dando la bienvenida a las contribuciones “reflexivas” del FOB a un “área compleja” y dice que las “tomará en cuenta a medida que avanza”, lo está haciendo. desde un lugar donde ha retenido el máximo control de la revisión de contenido al definir, dar forma y financiar la “supervisión” involucrada.

TL; DR: Una corte suprema real, esto no lo es.

En las próximas semanas, el FOB probablemente será vigilado más de cerca por un caso que aceptó recientemente, relacionado con la suspensión indefinida del expresidente estadounidense Donald Trump por parte de Facebook, luego de que incitara un violento asalto a la capital estadounidense a principios de este mes.

La junta señala que abrirá comentarios públicos sobre ese caso “en breve”.

“Los acontecimientos recientes en los Estados Unidos y en todo el mundo han resaltado el enorme impacto que las decisiones de contenido tomadas por los servicios de Internet tienen sobre los derechos humanos y la libre expresión”, escribe, y agrega que: “Los desafíos y limitaciones de los enfoques existentes para moderar el contenido llamar la atención sobre el valor de la supervisión independiente de las decisiones más importantes por parte de empresas como Facebook “.

Pero, por supuesto, esta “Junta de Supervisión” no puede ser completamente independiente de su fundador, Facebook.

Actualizar: En una respuesta genuinamente independiente a las decisiones de la FOB, la “Junta de Supervisión Real de Facebook” no oficial, cuyas filas están compuestas por personas que Facebook no seleccionó a mano, produjo una evaluación fulminante, diciendo que los fallos están divididos por “profundas inconsistencias” y estableció un “problema preocupante”. precedente de los derechos humanos ”.

“Los fallos de la Junta de Supervisión confirman el secreto peor guardado de Facebook: no tiene una estrategia de moderación ni estándares claros o consistentes”, agregó la Junta de Supervisión de Real Facebook.

Actualización 2: En respuesta pública a las primeras decisiones de la FOB, Facebook dijo: “Implementaremos estas decisiones vinculantes de acuerdo con los estatutos y ya hemos restaurado el contenido en tres de los casos según lo ordenado por la Junta de Supervisión. Restauramos la publicación de concientización sobre el cáncer de mama el año pasado, ya que no violó nuestras políticas y se eliminó por error “.

Agregó que consideraría las “numerosas declaraciones de asesoramiento sobre políticas”, que también ha emitido la FOB, señalando que tiene hasta 30 días para “considerar y responder en su totalidad”.

“Creemos que la junta incluyó algunas sugerencias importantes que tomaremos en serio. Sus recomendaciones tendrán un impacto duradero en cómo estructuramos nuestras políticas ”, agregó.

La respuesta inicial de Facebook a las primeras decisiones de la FOB no menciona directamente la decisión de esta última de revocar un discurso de odio y ordenar el restablecimiento de una publicación por parte de un usuario en Myanmar, lo que había sugerido que algo anda mal con la mentalidad de los musulmanes.

¡¡¡¿Esperar lo?!!!
La Junta de Supervisión de Facebook declaró:

“Referirse a los musulmanes como enfermos mentales o psicológicamente inestables no es una parte importante de esta retórica … Como tal, la Junta no considera que su eliminación sea necesaria”

Lee mas: https://t.co/DC6J2zvYOI https://t.co/FVobRBq2tW

– Mona Elswah (@monaelswah) 1 de febrero de 2021

La publicación hacía referencia a dos fotografías ampliamente compartidas de un niño sirio de etnia kurda que se había ahogado al intentar llegar a Europa en septiembre de 2015, con un texto adjunto que cuestionaba la falta de respuesta de los musulmanes en general al tratamiento de los musulmanes uigures en China, en comparación con los asesinatos en respuesta a las representaciones de dibujos animados del profeta Mahoma en Francia, según la FOB, antes de concluir que los acontecimientos recientes en Francia redujeron la simpatía del cartel por el niño representado, y parecían insinuar que el niño puede haber crecido hasta convertirse en un extremista.

“La Junta consideró que, si bien la primera parte de la publicación, tomada por sí sola, podría parecer una generalización insultante sobre los musulmanes (o los hombres musulmanes), la publicación debe leerse en su totalidad, considerando el contexto”, el FOB escribió, explicando cómo decidió que la publicación no incitaba al odio contra los musulmanes.

Sin embargo, la decisión de la Junta de revocar el derribo, en una región donde la plataforma de Facebook ha estado implicada durante años en la aceleración de la violencia étnica, enfrentó incredulidad en las redes sociales y fuerte condena de la Junta de Supervisión de Real Facebook independiente.




Source link