Ícono del sitio La Neta Neta

Reducir la difusión de información errónea en las redes sociales: ¿cómo sería una reestructuración?

Reducir la difusión de información errónea en las redes sociales: ¿cómo sería una reestructuración?

Las noticias están inundadas de historias de plataformas que reprimen la desinformación y la angustia que implica prohibir a miembros prominentes. Pero estas son curitas sobre un tema más profundo, a saber, que el problema de la desinformación es uno de nuestros propios diseños. Algunos de los elementos centrales de cómo hemos construido plataformas de redes sociales pueden aumentar inadvertidamente la polarización y difundir información errónea.

Si pudiéramos teletransportarnos atrás en el tiempo para relanzar plataformas de redes sociales como Facebook, Twitter y TikTok con el objetivo de minimizar la propagación de información errónea y teorías de conspiración desde el principio … ¿cómo se verían?

Este no es un ejercicio académico. Comprender estas causas fundamentales puede ayudarnos a desarrollar mejores medidas de prevención para las plataformas actuales y futuras.

Algunos de los elementos centrales de cómo hemos construido plataformas de redes sociales pueden aumentar inadvertidamente la polarización y difundir información errónea.

Como una de las firmas líderes en ciencias del comportamiento del Valle, hemos ayudado a marcas como Google, Lyft y otras a comprender la toma de decisiones humana en lo que respecta al diseño de productos. Recientemente colaboramos con TikTok para diseñar una nueva serie de avisos (lanzados esta semana) para ayudar a detener la propagación de información errónea potencial en su plataforma.

Créditos de imagen: Irrational Labs (Se abre en una nueva ventana)

La intervención reduce con éxito las cuotas de contenido marcado en un 24%. Si bien TikTok es único entre las plataformas, las lecciones que aprendimos allí han ayudado a dar forma a ideas sobre cómo podría verse una red social redux.

Crear exclusiones

Podemos tomar cambios mucho más grandes para reducir las vistas de contenido sin fundamento que las etiquetas o las indicaciones.

En el experimento que lanzamos junto con TikTok, las personas vieron un promedio de 1.5 videos marcados durante un período de dos semanas. Sin embargo, en nuestra investigación cualitativa, muchos usuarios dijeron que estaban en TikTok por diversión; no querían ver ningún video marcado. En una reciente llamada sobre ganancias, Mark Zuckerberg también habló sobre el cansancio de los usuarios de Facebook con el contenido hiperpartidista.

Sugerimos darles a las personas una opción de “exclusión voluntaria del contenido marcado”: elimine este contenido de sus feeds por completo. Para que esta sea una verdadera elección, esta opción de exclusión debe ser prominente, no enterrada en algún lugar donde los usuarios deban buscarla. Sugerimos incluirlo directamente en el flujo de registro para nuevos usuarios y agregar un mensaje en la aplicación para los usuarios existentes.

Cambiar el modelo de negocio

Hay una razón por la que las noticias falsas se difunden seis veces más rápido en las redes sociales que las noticias reales: es mucho más probable que la información controvertida, dramática o polarizante capte nuestra atención. Y cuando los algoritmos están diseñados para maximizar la participación y el tiempo dedicado a una aplicación, este tipo de contenido se ve muy favorecido sobre el contenido más reflexivo y deliberativo.

El modelo de negocio basado en publicidad es el núcleo del problema; es por eso que avanzar en la desinformación y la polarización es tan difícil. Un equipo interno de Facebook encargado de investigar el problema descubrió que “nuestros algoritmos explotan la atracción del cerebro humano por la división”. Pero el proyecto y el trabajo propuesto para abordar los problemas fueron rechazados por altos ejecutivos.

Esencialmente, este es un problema de incentivos clásico. Si las métricas comerciales que definen el “éxito” ya no dependen de maximizar la participación / tiempo en el sitio, todo cambiará. Ya no será necesario favorecer el contenido polarizador y un discurso más reflexivo podrá salir a la superficie.

Diseño para conexión

Una parte fundamental de la difusión de información errónea es sentirse marginado y solo. Los seres humanos son criaturas fundamentalmente sociales que buscan ser parte de un grupo, y los grupos partidistas con frecuencia brindan ese sentido de aceptación y validación.

Por lo tanto, debemos facilitar que las personas encuentren sus tribus y comunidades auténticas de otras maneras (en lugar de aquellas que se unen por teorías de conspiración).

Mark Zuckerberg dice que su objetivo final con Facebook era conectar a las personas. Para ser justos, en muchos sentidos Facebook lo ha hecho, al menos a nivel superficial. Pero deberíamos ir más profundo. A continuación se muestran algunas formas:

Podemos diseñar para una comunicación uno a uno más activa, que se ha demostrado que aumenta el bienestar. También podemos empujar la conexión fuera de línea. Imagine que dos amigos están charlando en Facebook Messenger o mediante comentarios en una publicación. ¿Qué tal un mensaje para reunirse en persona, cuando viven en la misma ciudad (después de COVID, por supuesto)? O si no están en la misma ciudad, un empujón para realizar una llamada o un video.

En el escenario en el que no son amigos y la interacción es más polémica, las plataformas pueden desempeñar un papel para resaltar no solo la humanidad de la otra persona, sino las cosas que uno comparte en común con el otro. Imagine un mensaje que mostrara, mientras “grita” en línea con alguien, todo lo que tiene en común con esa persona.

Las plataformas también deberían prohibir las cuentas anónimas o, como mínimo, fomentar el uso de nombres reales. Clubhouse tiene un buen establecimiento de normas al respecto: en el flujo de incorporación, dicen: “Aquí usamos nombres reales”. La conexión se basa en la idea de que estamos interactuando con un ser humano real. El anonimato oculta eso.

Finalmente, ayude a las personas a restablecer

Deberíamos facilitar que la gente salga de una madriguera algorítmica. YouTube ha sido criticado por sus madrigueras, pero todas las plataformas de redes sociales tienen este desafío. Una vez que hace clic en un video, se le muestran videos como ese. Esto puede ayudar a veces (llegar a ese video perfecto de “cómo” a veces requiere una búsqueda), pero por desinformación, esta es una marcha de la muerte. Un video sobre tierra plana conduce a otro, así como a otras teorías de conspiración. Necesitamos ayudar a la gente a salir de su destino algorítmico.

Con un gran poder viene una gran responsabilidad

Cada vez más personas obtienen sus noticias de las redes sociales, y es menos probable que quienes las reciben estén correctamente informadas sobre temas importantes. Es probable que continúe esta tendencia de confiar en las redes sociales como fuente de información.

Por lo tanto, las empresas de redes sociales se encuentran en una posición de poder única y tienen la responsabilidad de reflexionar profundamente sobre el papel que desempeñan en la reducción de la difusión de información errónea. Absolutamente deberían continuar experimentando y ejecutando pruebas con soluciones basadas en la investigación, como hicimos junto con el equipo de TikTok.

Este trabajo no es fácil. Lo sabíamos al entrar, pero apreciamos aún más este hecho después de trabajar con el equipo de TikTok. Hay muchas personas inteligentes y bien intencionadas que quieren resolver por un bien mayor. Estamos profundamente esperanzados en nuestra oportunidad colectiva aquí para pensar en grande y de manera más creativa sobre cómo reducir la desinformación, inspirar la conexión y fortalecer nuestra humanidad colectiva, todo al mismo tiempo.


Source link
Salir de la versión móvil