Evelyn Gosnell Colaborador
Evelyn Gosnell es directora general de Laboratorios irracionales, una consultoría de diseño e investigación del comportamiento.
Colaborador de Richard Mathera
Richard Mathera es director gerente de Laboratorios irracionales, una consultoría de diseño e investigación del comportamiento.
Las noticias están inundadas de historias de plataformas que toman medidas drásticas contra la información errónea y la angustia que implica la prohibición de miembros prominentes. Pero estas son curitas sobre un tema más profundo, a saber, que el problema de la desinformación es uno de nuestros propios diseños. Algunos de los elementos centrales de cómo hemos construido plataformas de redes sociales pueden aumentar inadvertidamente la polarización y difundir información errónea.
Si pudiéramos teletransportarnos atrás en el tiempo para relanzar plataformas de redes sociales como Facebook, Twitter y TikTok con el objetivo de minimizar la difusión de información errónea y teorías de conspiración desde el principio … ¿cómo se verían?
Este no es un ejercicio académico. Comprender estas causas fundamentales puede ayudarnos a desarrollar mejores medidas de prevención para las plataformas actuales y futuras.
Algunos de los elementos centrales de cómo hemos construido plataformas de redes sociales pueden aumentar inadvertidamente la polarización y difundir información errónea.
Como una de las firmas líderes en ciencias del comportamiento del Valle, hemos ayudado a marcas como Google, Lyft y otras a comprender la toma de decisiones humana en lo que respecta al diseño de productos. Recientemente colaboramos con TikTok para diseñar una nueva serie de mensajes (lanzados esta semana) para ayudar a detener la propagación de información errónea potencial en su plataforma.
Créditos de imagen: Irrational Labs (se abre en una nueva ventana)
La intervención reduce con éxito las cuotas de contenido marcado en un 24%. Si bien TikTok es único entre las plataformas, las lecciones que aprendimos allí han ayudado a dar forma a ideas sobre cómo podría verse una red social redux.
Crear exclusiones
Podemos tomar cambios mucho más grandes para reducir las vistas de contenido sin fundamento que las etiquetas o las indicaciones.
En el experimento que lanzamos junto con TikTok, las personas vieron un promedio de 1.5 videos marcados durante un período de dos semanas. Sin embargo, en nuestra investigación cualitativa, muchos usuarios dijeron que estaban en TikTok por diversión; no querían ver ningún video marcado en absoluto. En una reciente llamada de resultados, Mark Zuckerberg también habló de El cansancio de los usuarios de Facebook del contenido hiperpartidista.
Sugerimos darles a las personas una opción de “exclusión voluntaria del contenido marcado”: elimine este contenido de sus feeds por completo. Para que esta sea una verdadera elección, esta exclusión debe ser prominente, no enterrada en algún lugar donde los usuarios deban buscarla. Sugerimos incluirlo directamente en el flujo de registro para nuevos usuarios y agregar un mensaje en la aplicación para los usuarios existentes.
Cambiar el modelo de negocio
Hay una razón las noticias falsas se difunden seis veces más rápido en las redes sociales que noticias reales: la información que es controvertida, dramática o polarizante tiene muchas más probabilidades de captar nuestra atención. Y cuando los algoritmos están diseñados para maximizar la participación y el tiempo dedicado a una aplicación, este tipo de contenido se ve muy favorecido sobre el contenido más reflexivo y deliberativo.
El modelo de negocio basado en publicidad es el núcleo del problema; por eso es tan difícil avanzar en la desinformación y la polarización. Un equipo interno de Facebook encargado de investigar el problema descubrió que “Nuestros algoritmos explotan la atracción del cerebro humano por la división.. ” Pero el proyecto y el trabajo propuesto para abordar los problemas fueron rechazados por altos ejecutivos.
Esencialmente, este es un problema clásico de incentivos. Si las métricas comerciales que definen el “éxito” ya no dependen de maximizar la participación / tiempo en el sitio, todo cambiará. Ya no será necesario favorecer el contenido polarizador y un discurso más reflexivo podrá salir a la superficie.
Diseño para conexión
Una parte principal de la difusión de información errónea es sentirse marginado y solo. Los seres humanos son criaturas fundamentalmente sociales que buscan ser parte de un grupo interno, y los grupos partidistas con frecuencia brindan ese sentido de aceptación y validación.
Por lo tanto, debemos facilitar que las personas encuentren sus tribus y comunidades auténticas de otras maneras (frente a las que se unen por teorías de conspiración).
Mark Zuckerberg dice que su objetivo final con Facebook era conectar a las personas. Para ser justos, en muchos sentidos Facebook lo ha hecho, al menos a nivel superficial. Pero deberíamos profundizar más. A continuación se muestran algunas formas:
Podemos diseñar para una comunicación uno a uno más activa, que ha demostrado aumentar el bienestar. También podemos empujar la conexión fuera de línea. Imagina que dos amigos están charlando en Facebook Messenger o mediante comentarios en una publicación. ¿Qué tal un mensaje para reunirse en persona, cuando viven en la misma ciudad (post-COVID, por supuesto)? O si no están en la misma ciudad, un empujón para realizar una llamada o un video.
En el escenario en el que no son amigos y la interacción es más polémica, las plataformas pueden desempeñar un papel para resaltar no solo la humanidad de la otra persona, sino las cosas que uno comparte en común con el otro. Imagínese un mensaje que mostrara, mientras “grita” en línea con alguien, todo lo que tiene en común con esa persona.
Las plataformas también deberían prohibir las cuentas anónimas o, como mínimo, fomentar el uso de nombres reales. Clubhouse tiene un buen establecimiento de normas al respecto: en el flujo de incorporación, dicen: “Aquí usamos nombres reales”. La conexión se basa en la idea de que estamos interactuando con un ser humano real. El anonimato oculta eso.
Finalmente, ayude a las personas a restablecer
Deberíamos facilitar que la gente salga de una madriguera algorítmica. YouTube ha sido criticado por sus madrigueras, pero todas las plataformas de redes sociales tienen este desafío. Una vez que hace clic en un video, se le muestran videos como ese. Esto puede ayudar a veces (llegar a ese video perfecto de “cómo” a veces requiere una búsqueda), pero por desinformación, esta es una marcha de la muerte. Un video sobre tierra plana conduce a otro, así como a otras teorías de conspiración. Necesitamos ayudar a las personas a salir de su destino algorítmico.
Con un gran poder viene una gran responsabilidad
Cada vez más personas obtienen sus noticias de las redes sociales, y las que lo hacen tienen menos probabilidades de estar correctamente informados sobre cuestiones importantes. Es probable que continúe esta tendencia de depender de las redes sociales como fuente de información.
Por lo tanto, las empresas de redes sociales se encuentran en una posición de poder única y tienen la responsabilidad de pensar en profundidad sobre el papel que desempeñan en la reducción de la difusión de información errónea. Deben continuar experimentando y ejecutando pruebas con soluciones basadas en la investigación, como lo hicimos junto con el equipo de TikTok.
Este trabajo no es fácil. Lo sabíamos al entrar, pero tenemos una apreciación aún más profunda de este hecho después de trabajar con el equipo de TikTok. Hay muchas personas inteligentes y bien intencionadas que quieren resolver por un bien mayor. Estamos profundamente esperanzados acerca de nuestra oportunidad colectiva aquí para pensar en grande y de manera más creativa sobre cómo reducir la desinformación, inspirar la conexión y fortalecer nuestra humanidad colectiva, todo al mismo tiempo.
Source link