El organismo de 'supervisión' de Facebook anula cuatro eliminaciones y emite una serie de sugerencias de políticas

El organismo de ‘supervisión’ de Facebook anula cuatro eliminaciones y emite una serie de sugerencias de políticas

La ‘Junta de Supervisión’ (FOB) autorreguladora de Facebook ha emitido su primer lote de decisiones sobre decisiones de moderación de contenido impugnadas casi dos meses después de elegir sus primeros casos.

Desde hace mucho tiempo, el FOB es parte del impulso de relaciones públicas de crisis de Facebook para distanciar su negocio del impacto de decisiones controvertidas de moderación de contenido, mediante la creación de un organismo de revisión para manejar una pequeña fracción de las quejas que atraen sus eliminaciones de contenido. Comenzó a aceptar presentaciones para su revisión en octubre de 2020, y se ha enfrentado a críticas por su lentitud en despegar.

Al anunciar las primeras decisiones hoy, el FOB revela que ha optado por mantener solo una de las decisiones de moderación de contenido tomadas anteriormente por Facebook, anulando cuatro de las decisiones del gigante tecnológico.

Las decisiones sobre los casos fueron tomadas por paneles de cinco miembros que incluían al menos un miembro de la región en cuestión y una mezcla de géneros, según el FOB. La mayoría de la Junta en pleno tuvo que revisar las conclusiones de cada panel para aprobar la decisión antes de que pudiera emitirse.

El único caso en el que la Junta ha confirmado la decisión de Facebook de eliminar contenido es el caso 2020-003-FB-UA, en el que Facebook había eliminado una publicación en virtud de su Norma comunitaria sobre discursos de odio que utilizaba la palabra rusa “тазики” (“taziks”). para describir a los azerbaiyanos, quienes, según el usuario, no tienen antecedentes en comparación con los armenios.

En los otros cuatro casos, la Junta anuló las eliminaciones de Facebook, rechazando evaluaciones anteriores realizadas por el gigante tecnológico en relación con las políticas sobre incitación al odio, desnudez adulta, personas / organizaciones peligrosas y violencia e incitación. (Puede leer el resumen de estos casos en su sitio web).

Cada decisión se relaciona con un contenido específico, pero la junta también ha emitido nueve recomendaciones de política.

Estos incluyen sugerencias que Facebook [emphasis ours]:

  • Crear una nueva Norma comunitaria sobre desinformación sanitaria, consolidando y aclarando las reglas existentes en un solo lugar. Esto debería definir términos clave como “desinformación”.
  • Adoptar medios menos intrusivos para hacer cumplir sus políticas de desinformación sanitaria. donde el contenido no alcanza el umbral de daño físico inminente de Facebook.
  • Aumentar la transparencia sobre cómo modera la desinformación sobre la salud, incluida la publicación de un informe de transparencia sobre cómo se han aplicado las Normas Comunitarias durante la pandemia de COVID-19. Esta recomendación se basa en los comentarios públicos que recibió la Junta.
  • Asegúrese de que los usuarios siempre sean notificados de los motivos de la aplicación de las Normas de la comunidad en su contra, incluida la regla específica que Facebook está aplicando. (La Junta hizo dos recomendaciones políticas idénticas en este frente relacionadas con los casos que consideró, y señaló también en relación con el segundo caso de discurso de odio que “la falta de transparencia de Facebook dejó su decisión abierta a la creencia errónea de que la empresa eliminó el contenido porque el el usuario expresó una opinión con la que no estaba de acuerdo ”.)
  • Explicar y proporcionar ejemplos de la aplicación de términos clave de la política de Organizaciones y Personas Peligrosas., incluidos los significados de “elogio”, “apoyo” y “representación”. La Norma comunitaria también debería aconsejar mejor a los usuarios sobre cómo dejar en claro su intención cuando se habla de personas u organizaciones peligrosas.
  • Proporcionar una lista pública de las organizaciones y personas designadas como ‘peligrosas’ según el Estándar comunitario de personas y organizaciones peligrosas o, al menos, una lista de ejemplos.
  • Informar a los usuarios cuando se utiliza la aplicación automática para moderar su contenido, asegurarse de que los usuarios puedan apelar decisiones automatizadas a un ser humano en ciertos casosy mejorar la detección automatizada de imágenes con superposición de texto para que las publicaciones que generan conciencia sobre los síntomas del cáncer de mama no se marquen incorrectamente para su revisión. Facebook también debería mejorar sus informes de transparencia sobre el uso de la aplicación automatizada.
  • Revisar las Pautas de la comunidad de Instagram para especificar que se puede demostrar que los pezones femeninos aumentan la conciencia sobre el cáncer de mama y aclarar que cuando existen inconsistencias entre las Pautas de la comunidad de Instagram y las Normas de la comunidad de Facebook, estas últimas tienen prioridad.

Donde ha anulado las eliminaciones de Facebook, la junta dice que espera que Facebook restaure las partes específicas del contenido eliminado dentro de siete días.

Además, la Junta escribe que Facebook también “examinará si el contenido idéntico con un contexto paralelo asociado con las decisiones de la Junta debe permanecer en su plataforma”. Y dice que Facebook tiene 30 días para responder públicamente a sus recomendaciones de políticas.

Por lo tanto, sin duda será interesante ver cómo responde el gigante tecnológico a la larga lista de ajustes de políticas propuestos, tal vez especialmente las recomendaciones para una mayor transparencia (incluida la sugerencia de informar a los usuarios cuando el contenido ha sido eliminado únicamente por sus IA) y si Facebook se complace en alinearse completamente con la guía de políticas emitida por el vehículo autorregulador (o no).

Facebook creó la estructura y los estatutos de la junta y nombró a sus miembros, pero ha fomentado la idea de que es “independiente” de Facebook, aunque también financia FOB (indirectamente, a través de una fundación que creó para administrar el organismo).

Y aunque la Junta afirma que sus decisiones de revisión son vinculantes para Facebook, no existe tal requisito para que Facebook siga sus recomendaciones de política.

También es notable que los esfuerzos de revisión de la FOB se centren por completo en las eliminaciones, en lugar de en las cosas que Facebook elige alojar en su plataforma.

Dado todo eso, es imposible cuantificar cuánta influencia ejerce Facebook en las decisiones de la Junta de Supervisión de Facebook. E incluso si Facebook se traga todas las recomendaciones de políticas antes mencionadas, o más probablemente emite una línea de relaciones públicas que da la bienvenida a las contribuciones ‘reflexivas’ del FOB a un ‘área compleja’ y dice que ‘las tomará en cuenta a medida que avanza’, lo está haciendo desde un lugar donde ha retenido el máximo control de la revisión de contenido al definir, dar forma y financiar la ‘supervisión’ involucrada.

tl; dr: una corte suprema real, esto no es.

En las próximas semanas, el FOB probablemente será vigilado más de cerca por un caso que aceptó recientemente, relacionado con la suspensión indefinida del expresidente estadounidense Donald Trump por Facebook, luego de que incitara a un violento asalto a la capital estadounidense a principios de este mes.

La junta señala que abrirá comentarios públicos sobre ese caso “en breve”.

“Los acontecimientos recientes en los Estados Unidos y en todo el mundo han resaltado el enorme impacto que las decisiones de contenido tomadas por los servicios de Internet tienen sobre los derechos humanos y la libre expresión”, escribe, y agrega que: “Los desafíos y limitaciones de los enfoques existentes para moderar contenido llamar la atención sobre el valor de la supervisión independiente de las decisiones más importantes por parte de empresas como Facebook “.

Pero, por supuesto, esta ‘Junta de Supervisión’ no puede ser completamente independiente de su fundador, Facebook.


Source link