Facebook combate las noticias falsas con enlaces a otros ángulos

Facebook combate las noticias falsas con enlaces a otros ángulos

by

in

Facebook se convertirá en el sugerente de perspectiva para evitar ser el “árbitro de la verdad”. Es rodando “Artículos relacionados” que aparecen debajo de los enlaces de noticias a historias que muchas personas publican en Facebook, o que se sospecha que son noticias falsas y los socios de Facebook verificaron los hechos de forma externa. Los artículos relacionados, que aparecen antes de que alguien lea, mostrarán enlaces a informes adicionales sobre el mismo tema para proporcionar diferentes puntos de vista y a informes de veracidad de los verificadores de hechos.

Si los usuarios ven ángulos drásticamente diferentes cuando comparan una historia con sus Artículos relacionados, pueden considerarla sospechosa y omitirla, es menos probable que la crean o la compartan, o pueden hacer clic en los Artículos relacionados y tomar una decisión. Eso podría reducir la difusión y el impacto de las noticias falsas sin que Facebook tenga que ser la policía de la honestidad. Los artículos relacionados también podrían equilibrar algunas de las invectivas radicales que pueden polarizar sutilmente a la población.

Los artículos relacionados con el pre-clic se están implementando hoy en los EE. UU., Alemania, Francia y los Países Bajos. Se eligieron estos países para implementar primero porque Facebook ha establecido asociaciones de verificación de hechos allí. “No queremos ser ni somos los árbitros de la verdad. Los verificadores de hechos pueden dar la señal de si una historia es verdadera o falsa”, dice Tessa Lyons, gerente de productos de integridad de Facebook News Feed.

Mientras tanto, el algoritmo de aprendizaje automático de Facebook ha mejorado su precisión y velocidad, por lo que la red social ahora enviará más engaños potenciales a los verificadores de hechos. Lyons explica que la velocidad es importante porque “cuanto antes podamos enviar nuevas historias falsas potenciales a los verificadores de hechos, antes podrán revisarlas y más reduciremos la cantidad de personas que realmente están expuestas a ellas”.

Facebook ha mostrado artículos relacionados después de que las personas hagan clic en enlaces desde al menos 2014. Incluso entonces estaba recibiendo críticas por dar noticias falsas. En abril de este año, Facebook probó la nueva versión de pre-clic como parte de su ataque de múltiples puntas en noticias falsas tras las críticas de que la desinformación influyó en las elecciones presidenciales de EE. UU. de 2016. Eso incluye rebajar los engaños y los cebos de clics, reducir el tráfico de referencia a sitios de spam llenos de anuncios para cortar su financiación y promover el periodismo local y la alfabetización de noticias. Más directamente, se asoció con Snopes, AP, PolitiFact y otras agencias externas para poder agregar etiquetas de advertencia a las historias examinadas externamente como falsas.

“La gente nos dijo que los artículos relacionados les dieron más contexto sobre los temas y que tener más contexto los ayuda a tomar decisiones más informadas sobre lo que leen y lo que deciden compartir”, me dice Lyons. “Ver los artículos de Fact Checker en Artículos relacionados en realidad ayuda a las personas a identificar si lo que están leyendo es engañoso o falso”.

Facebook no personalizará los artículos relacionados que muestran una columna de imágenes en miniatura y titulares debajo de una historia de enlace. Sin embargo, utiliza otras señales de calidad de la clasificación de News Feed para mostrar las tomas alternativas óptimas. Afortunadamente, Lyons dice que Facebook no planea poner ningún anuncio en el cuadro de Artículos relacionados.

Entonces, ¿cómo evita Facebook mostrar accidentalmente más noticias falsas en los artículos relacionados? Facebook me dice que usa las mismas señales que su sección Tendencias y descalifica las publicaciones que muchas personas comentan o informan como falsas. No hay humanos involucrados en el proceso, lo que al menos elimina el potencial de sesgo directo, aunque los humanos tienden a codificar sus sesgos subconscientes en sus algoritmos.

Si Facebook no puede convencer al mundo de que tiene un control real sobre el problema de las noticias falsas, es posible que la gente sintonice la sección de noticias o haga menos clic en sus enlaces. Eso interfiere con el modelo comercial basado en anuncios de Facebook y su misión. Además, es probable que se le culpe por los resultados de futuras elecciones.

Si bien las noticias objetivamente falsas obtienen la mayor parte de la atención, son las exageraciones y las opiniones distorsionadas las que prevalecen mucho más y, por lo tanto, son potencialmente polarizantes. Si los artículos de los editores de extrema derecha e izquierda se combinan con los artículos relacionados de centro, podría disuadir a la gente de tragarse ciegamente las diatribas y los desvaríos que desgarran a la sociedad.


Source link