Años después de abrir una caja de Pandora de mal comportamiento, las empresas de redes sociales están tratando de encontrar formas sutiles de remodelar la forma en que las personas usan sus plataformas.
Siguiendo el ejemplo de Twitter, Facebook está probando una nueva función diseñada para animar a los usuarios a leer un enlace antes de compartirlo. La prueba llegará al 6% de los usuarios de Android de Facebook a nivel mundial en un lanzamiento gradual que tiene como objetivo fomentar el “intercambio informado” de noticias en la plataforma.
Los usuarios aún pueden hacer clic fácilmente para compartir una historia determinada, pero la idea es que al agregar fricción a la experiencia, las personas podrían repensar sus impulsos originales para compartir el tipo de contenido inflamatorio que actualmente domina en la plataforma.
A partir de hoy, estamos probando una forma de promover un intercambio más informado de artículos de noticias. Si va a compartir el enlace de un artículo de noticias que no ha abierto, le mostraremos un mensaje que lo anima a abrirlo y leerlo, antes de compartirlo con otros. pic.twitter.com/brlMnlg6Qg
– Sala de prensa de Facebook (@fbnewsroom) 10 de mayo de 2021
Twitter introdujo mensajes en junio pasado que instaban a los usuarios a leer un enlace antes de retuitearlo, y la compañía rápidamente descubrió que la función de prueba era exitosa, expandiéndola a más usuarios.
Facebook comenzó a probar más mensajes como este el año pasado. En junio pasado, la compañía lanzó mensajes emergentes para advertir a los usuarios antes de que compartan cualquier contenido que tenga más de 90 días en un esfuerzo por reducir las historias engañosas sacadas de su contexto original.
En ese momento, Facebook dijo que estaba buscando otros mensajes emergentes para reducir algunos tipos de información errónea. Unos meses despues, Facebook lanzó mensajes emergentes similares que indicaban la fecha y la fuente de los enlaces que comparten relacionados con COVID-19.
La estrategia demuestra la preferencia de Facebook por una estrategia pasiva de alejar a las personas de la información errónea y acercarlas a sus propios recursos verificados en temas candentes como COVID-19 y las elecciones de 2020.
Si bien el jurado aún está deliberando sobre el impacto que este tipo de moderación del comportamiento suave puede tener en la epidemia de desinformación, tanto en Twitter como en Facebook también he explorado indicaciones que disuaden a los usuarios de publicar comentarios abusivos.
Los mensajes emergentes que dan a los usuarios la sensación de que se está observando su mal comportamiento podrían ser hacia donde se dirige una moderación más automatizada en las plataformas sociales. Si bien los usuarios probablemente estarían mucho mejor atendidos por las empresas de redes sociales que eliminan la información errónea y las plataformas existentes plagadas de abuso y las reconstruyen de manera más cuidadosa desde cero, los pequeños empujones de comportamiento tendrán que ser suficientes.