Ícono del sitio La Neta Neta

Twitter ocultará tuits falsos de cuentas de alto perfil en tiempos de crisis

Twitter ocultará tuits falsos de cuentas de alto perfil en tiempos de crisis

En su esfuerzo continuo por combatir la desinformación sobre noticias de última hora, Twitter está lanzando un política de desinformación de crisis para asegurarse de que no amplifique las falsedades en tiempos de conflictos generalizados.

Para determinar si un tuit es engañoso, Twitter requerirá la verificación de fuentes públicas creíbles, incluidos grupos de monitoreo de conflictos, organizaciones humanitarias, investigadores de fuente abierta, periodistas y más. Si la plataforma encuentra que el tweet es engañoso, colocará un aviso de advertencia en el tweet, desactivará los me gusta, los retweets y las acciones compartidas, y vinculará a más detalles sobre la política. Estos tweets también dejarán de aparecer en la página de inicio, busque o explore.

En particular, Twitter “preservará este contenido con fines de rendición de cuentas”, por lo que permanecerá en línea. Los usuarios solo tendrán que hacer clic en la advertencia para ver el tweet. En el pasado, algunas advertencias sobre elecciones o información errónea sobre el COVID-19 eran simplemente avisos que aparecían debajo del tuit, en lugar de ocultarlo por completo.

Créditos de imagen: Gorjeo

Twitter dice que priorizará agregar avisos de advertencia a los tuits o publicaciones virales de cuentas de alto perfil, que pueden incluir usuarios verificados, medios afiliados al estado y cuentas gubernamentales. Esta estrategia tiene mucho sentido, ya que es más probable que un tweet de una figura prominente se vuelva viral que un tweet de una persona común con 50 seguidores, pero es sorprendente que más plataformas aún no hayan adoptado este enfoque.

Algunos ejemplos de tuits que podrían marcarse en virtud de esta política incluyen informes falsos de eventos sobre el terreno, acusaciones engañosas de crímenes de guerra, atrocidades o uso de armas e información errónea sobre la respuesta de la comunidad internacional, sanciones, operaciones defensivas y más. Las anécdotas personales no se incluyen en la política, ni tampoco las opiniones fuertes, los comentarios o la sátira de las personas. También se permiten los tuits que llamen la atención sobre una afirmación falsa para refutarla.

Twitter comenzó a trabajar en un marco de desinformación de crisis el año pasado junto con organizaciones de derechos humanos, dice. Esta política puede entrar en vigencia en circunstancias como emergencias de salud pública o desastres naturales, pero para empezar, la plataforma utilizará estas tácticas para mitigar la información errónea sobre el conflicto armado internacional, en particular, el ataque ruso en curso contra Ucrania.

La mayoría de las redes sociales han tenido problemas con la moderación de contenido en medio de la guerra en Ucrania, y Twitter no es una excepción. En una circunstancia, Twitter tomó la decisión de eliminar la afirmación falsa de la embajada rusa de que una víctima embarazada de un bombardeo en Ucrania era un actor de crisis. Twitter también suspendió una cuenta que difundió una falsa teoría de la conspiración de que Estados Unidos tiene armas biológicas en Ucrania.

Parece que hay una línea muy fina entre qué tipo de contenido se eliminaría por completo o qué publicaciones resultarían en una eliminación o prohibición. Esta política podría haberse aplicado al tuit engañoso de la embajada rusa, por ejemplo, pero ¿en qué punto una cuenta es tan infractora que se gana una prohibición?

Nuestro enfoque para mitigar los efectos de la información errónea dañina continúa moviéndose más allá del binario de moderación de dejar arriba/retirar.

Hemos visto que no amplificar el contenido dañino puede reducir su propagación en un 30-50%. Continuaremos invirtiendo en estas intervenciones en el futuro.

— Yoel Roth (@yoyoel) 19 de mayo de 2022

“La moderación de contenido es más que simplemente dejar o quitar contenido”, dijo el jefe de seguridad e integridad de Twitter, Yoel Roth. escribió en una entrada de blog. “Descubrimos que no amplificar o recomendar cierto contenido, agregar contexto a través de etiquetas y, en casos severos, deshabilitar el compromiso con los Tweets, son formas efectivas de mitigar el daño, al tiempo que preservan el discurso y los registros de eventos globales críticos”.

Roth agregó en un hilo que Twitter descubrió que no amplificar este contenido puede reducir su difusión entre un 30% y un 50%.

Pero dependiendo de si la oferta de $ 44 mil millones de Elon Musk para comprar Twitter realmente se lleva a cabo, es posible que estas políticas no duren mucho. Musk cree que la moderación de contenido debe reflejar las reglas del estado, es decir, las pautas de la comunidad de Twitter básicamente se convierten en la Primera Enmienda sin matices adicionales. Si bien eso puede ser atractivo para el tipo de personas que nunca reciben mensajes de odio, ese enfoque podría deshacer muchos avances en Twitter, incluidos esfuerzos como este que detienen la propagación de información errónea dañina.

Aun así, estas políticas nunca son 100 % efectivas, y gran parte del contenido que viola las pautas escapa a la detección de todos modos. Esta semana, encontramos varios videos prohibidos del ataque terrorista del tirador de Buffalo en plataformas como Twitter y Facebook, que permanecieron en línea durante días sin eliminarlos. Un video del espantoso tiroteo, que enviamos directamente a Twitter, aún permanece en línea.

Entonces, si bien estas políticas pueden tener buenas intenciones, solo pueden funcionar con la misma eficacia si se aplican.




Source link

Salir de la versión móvil