Un estudio encuentra que alrededor de un tercio de los estadounidenses reciben regularmente sus noticias de Facebook

Facebook está probando mensajes emergentes que le dicen a las personas que lean un enlace antes de compartirlo

Años después de abrir una caja de Pandora de mal comportamiento, las empresas de redes sociales están tratando de encontrar formas sutiles de remodelar la forma en que las personas usan sus plataformas.

Siguiendo el ejemplo de Twitter, Facebook está probando una nueva función diseñada para animar a los usuarios a leer un enlace antes de compartirlo. La prueba llegará al 6% de los usuarios de Android de Facebook a nivel mundial en un despliegue gradual que tiene como objetivo fomentar el “intercambio informado” de noticias en la plataforma.

Los usuarios aún pueden hacer clic fácilmente para compartir una historia determinada, pero la idea es que al agregar fricción a la experiencia, las personas podrían repensar sus impulsos originales de compartir el tipo de contenido inflamatorio que actualmente domina en la plataforma.

Twitter presentó en junio pasado mensajes que instaban a los usuarios a leer un enlace antes de retuitearlo, y la compañía rápidamente descubrió que la función de prueba era exitosa y la expandió a más usuarios.

Facebook comenzó a probar más mensajes como este el año pasado. En junio pasado, la compañía lanzó mensajes emergentes para advertir a los usuarios antes de que compartan cualquier contenido que tenga más de 90 días en un esfuerzo por reducir las historias engañosas sacadas de su contexto original.

En ese momento, Facebook dijo que estaba buscando otros mensajes emergentes para reducir algunos tipos de información errónea. Unos meses más tarde, Facebook lanzó mensajes emergentes similares que indicaban la fecha y la fuente de los enlaces que comparten relacionados con COVID-19.

La estrategia demuestra la preferencia de Facebook por una estrategia pasiva de alejar a las personas de la información errónea y acercarlas a sus propios recursos verificados sobre temas candentes como COVID-19 y las elecciones de 2020.

Si bien el jurado aún está deliberando sobre el impacto que este tipo de moderación del comportamiento suave puede tener en la epidemia de desinformación, tanto Twitter como Facebook también han explorado sugerencias que desalientan a los usuarios de publicar comentarios abusivos.

Los mensajes emergentes que dan a los usuarios la sensación de que se está observando su mal comportamiento podrían ser hacia donde se dirige una moderación más automatizada en las plataformas sociales. Si bien los usuarios probablemente estarían mucho mejor atendidos por las empresas de redes sociales que eliminan la información errónea y las plataformas existentes plagadas de abuso y las reconstruyen de manera más cuidadosa desde cero, los pequeños empujones de comportamiento tendrán que ser suficientes.




Source link