Ícono del sitio La Neta Neta

Los usuarios de Facebook e Instagram ahora pueden solicitar al panel de ‘supervisión’ que revise las decisiones de no eliminar contenido

Facebook sobre el terreno en Kenia mientras la explotación de menores abunda en su plataforma

La autodenominada “Junta de Supervisión” (FOB) de Facebook ha Anunciado un cambio operativo que parece destinado a responder a las críticas de los límites del organismo de revisión de decisiones de moderación de contenido autorregulado: dice que ha comenzado a aceptar solicitudes de los usuarios para revisar las decisiones de dejar contenido en Facebook e Instagram.

La medida expande el mandato del FOB más allá de revisar (y en su mayoría revertir) las eliminaciones de contenido, un límite arbitrario que, según los críticos, lo alinea con los incentivos económicos de su entidad matriz, dado que el negocio de Facebook se beneficia de un mayor compromiso con el contenido (y el contenido escandaloso genera clics y hace que los globos oculares se peguen).

“Hasta ahora, los usuarios han podido apelar a la Junta el contenido que creen que debería restaurarse en Facebook o Instagram. Ahora, los usuarios también pueden apelar a la Junta el contenido que creen que debería eliminarse de Facebook o Instagram ”, escribe el FOB, y agrega que“ usará su criterio independiente para decidir qué dejar y qué eliminar ”.

“Nuestras decisiones serán vinculantes para Facebook”, agrega.

La capacidad de solicitar una apelación sobre el contenido que Facebook no eliminaría se ha agregado en todos los mercados, según Facebook. Pero el gigante de la tecnología dijo Tomará algunas “semanas” para que todos los usuarios tengan acceso, ya que dijo que está implementando la función “en oleadas para garantizar la estabilidad de la experiencia del producto”.

Si bien el FOB ahora puede hacer que se eliminen partes individuales de contenido de Facebook / Instagram, es decir, si la Junta cree que está justificado revertir una decisión anterior de la empresa de no eliminar contenido, no puede hacer que Facebook adopte ninguna sugerencia asociada con respecto a sus políticas de moderación de contenido en general.

Eso es porque Facebook nunca ha dicho que estará sujeto a las recomendaciones de política de la FOB; solo por la decisión final tomada por revisión.

Eso, a su vez, limita la capacidad del FOB para influir en la forma del enfoque del gigante tecnológico para la vigilancia del habla. Y, de hecho, todo el esfuerzo permanece indisolublemente ligado a Facebook, que diseñó y estructuró el FOB, redactando los estatutos y estatutos de la Junta, y eligiendo a mano la primera cohorte de miembros. Por lo tanto, la compañía continúa ejerciendo un tirón ineludible sobre los hilos que vinculan su vehículo de autorregulación con su lucrativo imperio de creación de perfiles de personas y orientación publicitaria.

El FOB que tiene la capacidad de revisar el contenido “se mantiene al día” (si podemos llamarlos así) también es esencialmente irrelevante cuando se considera el océano de contenido que Facebook se ha asegurado de que la Junta no tenga voz en la moderación, debido a sus recursos limitados / mano de obra significa que solo puede considerar un subconjunto increíblemente pequeño de casos remitidos para su revisión.

Para que un organismo de supervisión proporcione un límite significativo al poder de Facebook, necesitaría tener poderes considerablemente más sustanciales (es decir, legales); poder abarcar libremente todos los aspectos del negocio de Facebook (no solo revisar el contenido generado por el usuario); y ser verdaderamente independiente de la nave nodriza adtech, además de tener poderes significativos de aplicación y sanción.

Entonces, en otras palabras, debe ser un organismo público que funcione en el interés público.

En cambio, mientras Facebook aplica su ejército de abogados internos para luchar contra la supervisión y el cumplimiento regulatorios democráticos reales, se ha lanzado para dar forma a esta burocracia a medida que puede alinearse con sus intereses de discurso, eligiendo a un puñado de expertos externos para que paguen por realizar un contenido. revisión cameo en su drama de relaciones públicas de crisis.

Entonces, como era de esperar, el FOB ha movido principalmente la aguja en una dirección que maximiza el habla hasta ahora, mientras expresa cierta frustración por la limitada baraja de cartas que Facebook le ha repartido.

En particular, la Junta todavía tiene una decisión pendiente sobre si revertir la prohibición indefinida de Facebook al ex presidente de los Estados Unidos, Donald Trump. Si revierte esa decisión, los usuarios de Facebook no tendrán ningún recurso para apelar la restauración de la cuenta de Trump.

La única ruta disponible sería, presumiblemente, que los usuarios reporten el contenido futuro de Trump a Facebook por violar sus políticas, y si Facebook se niega a eliminar esas cosas, los usuarios podrían intentar solicitar una revisión FOB. Pero, nuevamente, no hay garantía de que el FOB acepte tales solicitudes de revisión. (De hecho, si la junta elige reinstalar a Trump, eso puede dificultar que acepte solicitudes para revisar el contenido de Trump, al menos en el corto plazo (en aras de mantener un archivo de caso diverso, entonces…).

Cómo solicitar una revisión después de que no se elimine el contenido

Para solicitar la revisión FOB de un contenido que se ha dejado, un usuario de Facebook / Instagram primero tiene que informar el contenido a Facebook / Instagram.

Si la empresa decide mantener el contenido, Facebook dice que la persona que reporta recibirá una ID de referencia de la Junta de Supervisión (una cadena de 10 caracteres que comienza con “FB”) en su Bandeja de entrada de soporte – que pueden usar para apelar su decisión de “no eliminación” ante la Junta de Supervisión.

Hay varios obstáculos para realizar una apelación: siguiendo las instrucciones en pantalla, Facebook dice que el usuario será llevado a la Sitio web de la Junta de Supervisión donde deben iniciar sesión con la cuenta a la que se emitió el ID de referencia.

Luego, se les pedirá que respondan a una serie de preguntas sobre sus razones para informar el contenido (para “ayudar a la junta a comprender por qué cree que Facebook tomó la decisión incorrecta”).

Una vez que se ha presentado una apelación, la Junta de Supervisión decidirá si la revisa o no. La junta solo selecciona un cierto número de “apelaciones elegibles” para revisar; y Facebook no ha revelado la proporción de solicitudes que la Junta acepta para revisión frente a las presentaciones que recibe, por caso o en conjunto. Entonces, cuántas posibilidades de éxito de envío tiene un usuario para un contenido determinado es una cantidad desconocida (y probablemente incognoscible).

Los usuarios que han presentado una apelación contra el contenido que se dejó de lado pueden verificar el estado de su apelación a través del sitio web de la FOB, nuevamente iniciando sesión y usando la ID de referencia.

Una limitación adicional es el tiempo, como señala Facebook, hay un límite de tiempo para apelar las decisiones al FOB.

“Tenga en cuenta que existe un límite de tiempo para apelar las decisiones ante la Junta de Supervisión. Una vez que haya expirado el plazo para apelar una decisión, ya no podrá enviarla ”, escribe en su Centro de ayuda, sin especificar cuánto tiempo tienen los usuarios para recibir su apelación (le pedimos a Facebook que lo confirme y son 15 días).


Source link
Salir de la versión móvil