En una publicación de blog el miércoles, Facebook dijo que ya no permitirá contenido que fomente la observación de encuestas que use un lenguaje “militarizado” o que tenga la intención de “intimidar, ejercer control o mostrar poder sobre los funcionarios electorales o los votantes”. Facebook atribuyó la actualización a las reglas de su plataforma a los expertos en derechos civiles con quienes trabajó para crear la política.
La vicepresidenta de política de contenido de Facebook, Monika Bickert, elaboró sobre las nuevas reglas en una llamada con los periodistas, y señaló que la redacción prohibiría las publicaciones que usen palabras como “ejército” o “batalla”, una elección que parece apuntar directamente al esfuerzo de la campaña de Trump. para reclutar un “ejército para Trump” para ver las urnas el día de las elecciones. El mes pasado, Donald Trump Jr. pidió a sus partidarios que se “alistaran ahora” en una “operación de seguridad electoral del ejército para Trump” en un video que se publicó en Facebook y otras plataformas sociales.
“Según la nueva política, si ese video se volviera a publicar, de hecho lo eliminaríamos”, dijo Bickert.
La compañía dice que si bien los puestos que piden una “interferencia coordinada” o que se presentan armados en los lugares de votación ya son objeto de eliminación, la política ampliada abordará de manera más completa las preocupaciones sobre la intimidación de los votantes. Facebook aplicará la política ampliada en el futuro, pero no afectará el contenido que ya se encuentra en la plataforma, incluida la publicación de Trump Jr.
La observación de las encuestas para garantizar elecciones justas es una parte regular del proceso, pero convertir a esos observadores en armas para buscar pruebas de afirmaciones infundadas sobre “papeletas fraudulentas” y elecciones “amañadas” es algo nuevo, y algo más parecido a la intimidación de los votantes. Leyes de vigilancia de encuestas varían según el estado y algunos estados limitan la cantidad de observadores electorales que pueden estar presentes y cómo deben identificarse.
Trump ha fallado repetidamente en decir que aceptará los resultados de las elecciones en caso de que pierda, una posición que representa una amenaza sin precedentes para la transición pacífica del poder en los EE. UU. vigilando ansiosamente a medida que se acerca el día de las elecciones.
“Donald Trump no está interesado en la integridad de las elecciones, está interesado en la supresión de votantes”, dijo la fundadora de VoteAmerica, Debra Cleaver, sobre los esfuerzos de observación de las encuestas de la campaña de Trump. “Enviar vigilantes armados a las urnas es una solución a un problema que no existe, a menos que uno crea que las votaciones de negros y morenos son un problema”.
Facebook también está realizando algunos cambios en sus reglas sobre publicidad política. La compañía ya no permitirá anuncios políticos inmediatamente después de las elecciones en un esfuerzo por evitar el caos y las afirmaciones falsas.
“… Si bien los anuncios son una forma importante de expresar la voz, planeamos dejar de publicar temporalmente todos los anuncios de temas sociales, electorales o políticos en los EE. UU. Después del cierre de las urnas el 3 de noviembre, para reducir las oportunidades de confusión o abuso”, dijo el vicepresidente de Facebook. de Integridad, escribió Guy Rosen en una publicación de blog. Rosen agregó que Facebook permitirá a los anunciantes saber cuándo se permitirán esos anuncios nuevamente.
Facebook también brindó un vistazo de cómo se verán sus aplicaciones en lo que podría convertirse en una noche electoral inusual. La compañía colocará una notificación en la parte superior de las aplicaciones de Instagram y Facebook con el estado de la elección en un esfuerzo por verificar ampliamente las afirmaciones falsas.
Imágenes vía Facebook
Esos mensajes recordarán a los usuarios que “los votos aún se están contando” antes de cambiar a un mensaje de “Se ha proyectado un ganador” después de que surja un consenso confiable sobre la carrera. Debido a que los resultados de las elecciones pueden no ser evidentes en la noche de las elecciones de este año, es posible que los usuarios vean estos mensajes después del 3 de noviembre. Si un candidato declara una victoria prematura, Facebook agregará una de estas etiquetas a ese contenido.
Facebook también señaló que ahora está utilizando un sistema de revisión de contenido viral, una medida diseñada para prevenir los muchos casos en los que la información errónea o el contenido dañino acumula miles de visitas antes de que finalmente se elimine. Facebook dice que la herramienta, en la que dice haber confiado “durante la temporada electoral”, proporciona una red de seguridad que ayuda a la empresa a detectar contenido que infringe sus reglas para que pueda tomar medidas para limitar su propagación.
En el último mes antes de las elecciones, Facebook muestra notablemente menos vacilaciones en controlar la desinformación y otros contenidos políticos dañinos en su plataforma. La compañía anunció el martes que ya no permitiría que la teoría de la conspiración pro-Trump conocida como QAnon prospere allí, como lo ha hecho en los últimos cuatro años. Facebook también eliminó una publicación esta semana en la que el presidente Trump, recién salido de una estadía en el hospital de varios días, afirmó que el COVID-19 es “mucho menos letal” que la gripe.
Source link