Facebook dice que prohibirá QAnon en sus plataformas

Facebook dice que prohibirá QAnon en sus plataformas

Facebook amplió la prohibición del contenido relacionado con QAnon en sus diversas plataformas sociales el martes, profundizando una prohibición anterior sobre los grupos relacionados con QAnon que habían “discutido la violencia potencial”, según la compañía.

La medida de hoy de Facebook para prohibir no solo el contenido violento de QAnon sino “cualquier página de Facebook, grupo y cuenta de Instagram que represente a QAnon” es una escalada del gigante social para limpiar su plataforma antes de una elección cada vez más polémica.

QAnon es un extenso conjunto de teorías de conspiración entretejidas a favor de Trump que se ha arraigado dentro de franjas del electorado estadounidense. Sus seguidores más extremos han sido acusados ​​de terrorismo después de actuar de manera violenta y peligrosa, estimulados por su adhesión al sistema de creencias inusual y a menudo incoherente. BuzzFeed News decidió recientemente llamar a QAnon un “engaño colectivo”, otro título apropiado para las creencias estúpidas, fatuas y peligrosas de la teoría.

El esfuerzo de Facebook para controlar QAnon es útil, pero probablemente sea demasiado tarde. En el transcurso del último año, QAnon pasó de ser una teoría de la conspiración marginal a un sistema de creencias políticas sorprendentemente dominante, uno que incluso tiene sus propios candidatos al Congreso. Ese crecimiento fue impulsado por las redes sociales diseñadas inherentemente para conectar a personas de ideas afines entre sí, una característica que se ha encontrado una y otra vez para difundir información errónea y llevar a los usuarios hacia creencias cada vez más radicales.

En julio, Twitter tomó medidas propias contra QAnon, citando preocupaciones sobre el “daño fuera de línea”. La compañía rebajó el contenido de QAnon, eliminándolo de las páginas de tendencias y de las sugerencias algorítmicas. El cambio de política de Twitter, como el anterior de Facebook, no llegó a prohibir el contenido por completo, pero se movió para contener su propagación.

Otras empresas, como el producto de YouTube de Alphabet, han sido objeto de una censura similar por parte de observadores externos. (YouTube dice que modificó su algoritmo para filtrar mejor las orillas más oscuras de su mezcla de contenido, pero los resultados de ese experimento están lejos de ser concluyentes).

Plataformas sociales como Facebook y Twitter también han realizado cambios en sus reglas después de enfrentarse a una administración deliberadamente mendaz antes de una elección, sobre la cual la misma administración ha propagado mentiras y desinformación sobre la seguridad del voto y el virus que ha matado a más de 200.000 estadounidenses. El trabajo de los pares para limitar esas dos cepas de información errónea particularmente riesgosas es digno, pero al adoptar una postura reactiva en lugar de una proactiva, la mayoría de esas decisiones políticas también han llegado demasiado tarde para controlar la propagación viral de contenido peligroso.

La nueva regla de Facebook entra en vigor hoy, y la compañía dice en un comunicado que ahora está “eliminando el contenido en consecuencia”, pero que el esfuerzo para purgar QAnon “llevará tiempo”.

¿Qué impulsó el cambio en Facebook? Según la compañía, después de que arrancó material violento de QAnon, vio “otro contenido de QAnon vinculado a diferentes formas de daño en el mundo real, incluidas afirmaciones recientes de que ciertos grupos iniciaron los incendios forestales de la costa oeste”. En Oregón, donde recientemente se produjeron incendios forestales, la desinformación en la plataforma de Facebook llevó a residentes estatales mal informados que creían que antifa, un término aplicado a quienes se oponían al fascismo como un peyorativo irónico, estaban incendiando el estado y establecieron barricadas ilegales.

La eficacia de Facebook para eliminar el contenido relacionado con QAnon de sus diversas plataformas no está claro hoy, pero será algo que rastrearemos.


Source link