Facebook cree que mostrar entradas de Wikipedia sobre editores y artículos relacionados adicionales brindará a los usuarios más contexto sobre los enlaces que ven. Así que hoy está comenzando una prueba de un nuevo botón “i” en los enlaces de News Feed que abren un panel informativo. “La gente nos ha dicho que quiere más información sobre lo que está leyendo”, dice a TechCrunch la gerente de producto de Facebook, Sara Su. “Quieren mejores herramientas que los ayuden a comprender si un artículo es de un editor en el que confían y evaluar si la historia en sí es creíble”.
Este cuadro mostrará el inicio de una entrada de Wikipedia sobre el editor y un enlace al perfil completo, lo que podría ayudar a las personas a saber si se trata de una fuente de noticias confiable y de larga data… o un sitio partidista o de sátira recientemente creado. También mostrará información de su página de Facebook, incluso si no es quien publicó el enlace, datos sobre cómo se comparte el enlace en Facebook y un botón para seguir la página del medio de comunicación. Si no hay una página de Wikipedia disponible, faltará esa información, lo que también podría proporcionar una pista a los lectores de que el editor puede no ser legítimo.
Mientras tanto, el botón también revelará artículos relacionados en todos los enlaces donde Facebook pueda generarlos, en lugar de solo si el artículo es popular o se sospecha que es una noticia falsa, como Facebook había probado previamente. La información de tendencias también podría aparecer si el artículo es parte de un tema de tendencias. Juntos, esto podría mostrar a las personas versiones alternativas de la misma noticia, lo que podría cuestionar el artículo original o brindar más perspectiva. Anteriormente, Facebook solo mostraba artículos relacionados ocasionalmente e inmediatamente los revelaba en enlaces sin un clic adicional.
Más contexto, más complejo
Los cambios son parte de la gran iniciativa en curso de Facebook para mejorar la integridad del contenido.
Por supuesto, cada vez que Facebook muestra más información, crea más vectores potenciales para la desinformación. “Este trabajo refleja los comentarios de nuestra comunidad, incluidos los editores que colaboraron en el desarrollo de funciones como parte del Proyecto de periodismo de Facebook” dice Su.
Cuando se le preguntó sobre el riesgo de que las entradas de Wikipedia que se extraen hayan sido manipuladas con información falsa, un portavoz de Facebook me dijo: “El vandalismo en Wikipedia es un evento raro y desafortunado que generalmente se resuelve rápidamente. Contamos con Wikipedia para resolver rápidamente tales situaciones y remitirlo a ellos para obtener información sobre sus políticas y programas que abordan el vandalismo”.
Y para evitar la distribución de noticias falsas, Facebook dice que los artículos relacionados “tratarán del mismo tema, y serán de una amplia variedad de editores que publican regularmente contenido de noticias en Facebook que logran un alto compromiso con nuestra comunidad”.
“A medida que continuamos con la prueba, continuaremos escuchando los comentarios de las personas para comprender qué tipos de información son más útiles y explorar formas de ampliar la función”, dice Su a TechCrunch. “Aplicaremos lo que aprendamos de la prueba para mejorar la experiencia que las personas tienen en Facebook, avanzar en la alfabetización de noticias y apoyar a una comunidad informada”. Facebook no espera que los cambios afecten significativamente el alcance de las páginas, aunque los editores que distribuyen noticias falsas a sabiendas podrían ver menos clics si el botón de información repele a los lectores desacreditando los artículos.
Hacer esto bien es especialmente importante después de la fiasco esta semana cuando la Verificación de seguridad de Facebook para el trágico tiroteo masivo en Las Vegas señaló a las personas noticias falsas. Si Facebook no puede mejorar la confianza en lo que se muestra en la sección de noticias, es posible que las personas hagan menos clic en todos sus enlaces. Eso podría perjudicar a los editores de noticias inocentes, además de reducir los clics en los anuncios de Facebook.
Imagen: Bryce Durbin/TechCrunch
Facebook inicialmente minimizó el tema de las noticias falsas después de las elecciones presidenciales de EE. UU., donde fue criticado por permitir que proliferaran los engaños a favor de Trump. Pero desde entonces, la compañía y Mark Zuckerberg han cambiado de opinión.
La empresa ha atacado las noticias falsas desde todos los ángulos, utilizando IA para buscarlas y degradarlas en la sección de noticias, trabajando con verificadores de hechos de terceros para marcar artículos sospechosos, ayudando a los usuarios a denunciar engaños más fácilmente, detectando sitios de noticias llenos de contenido de baja calidad. anuncios y eliminando cuentas sospechosas de enviar basura al feed.
La rápida iteración de Facebook en su lucha contra las noticias falsas muestra su capacidad para reaccionar bien cuando sus problemas salen a la luz. Pero estos cambios solo se produjeron después de que se hizo daño durante nuestra elección, y ahora Facebook enfrenta el escrutinio del Congreso, una reacción violenta generalizada y está tratando de autorregularse antes de que intervenga el gobierno.
La empresa necesita anticiparse de manera más proactiva a las fuentes de desinformación si quiere mantenerse al día en este juego del gato y el ratón contra los trolls, los entrometidos en las elecciones y los editores de clickbait.
Source link