Ícono del sitio La Neta Neta

Debunk, don’t ‘prebunk’ y otras lecciones de psicología para la moderación de las redes sociales

Debunk, don't 'prebunk' y otras lecciones de psicología para la moderación de las redes sociales

Si las redes sociales y otras plataformas quieren controlar la desinformación, no es suficiente saber qué es, hay que saber cómo reacciona la gente. Los investigadores del MIT y Cornell tienen algunos hallazgos sorprendentes pero sutiles que pueden afectar la forma en que Twitter y Facebook deberían tratar este contenido problemático.

La contribución del MIT es contradictorio. Cuando alguien encuentra un titular engañoso en su línea de tiempo, lo lógico sería ponerle una advertencia para que el lector sepa que está en disputa desde el principio. Resulta que ese no es el caso.

El estudio de casi 3.000 personas les hizo evaluar la precisión de los titulares después de recibir advertencias diferentes (o ninguna) sobre ellos.

“Al entrar en el proyecto, había anticipado que sería mejor dar la corrección de antemano, para que la gente ya supiera que no podía creer la afirmación falsa cuando entrara en contacto con ella. Para mi sorpresa, en realidad encontramos lo contrario ”, dijo el coautor del estudio David Rand en un artículo de noticias del MIT. “Desmentir el reclamo después de que estuvieron expuestos a él fue lo más efectivo”.

Cuando a una persona se le advirtió de antemano que el título era engañoso, mejoró su precisión de clasificación en un 5,7%. Cuando la advertencia llegó simultáneamente con el titular, esa mejora creció hasta el 8,6%. Pero si se muestra la advertencia después, fueron un 25% mejores. En otras palabras, el desacreditar venció al “prebunking” por un margen justo.

El equipo especuló sobre la causa de esto, sugiriendo que encaja con otras indicaciones de que es más probable que las personas incorporen retroalimentación en un juicio preexistente en lugar de alterar ese juicio a medida que se está formando. Advirtieron que el problema es mucho más profundo de lo que un ajuste como este puede solucionar.

“No existe una fórmula mágica que pueda curar el problema de la desinformación”, dijo el coautor Adam Berinsky. “Estudiar las preguntas básicas de forma sistemática es un paso fundamental hacia una cartera de soluciones eficaces”.

El estudio de Cornell es a la vez reconfortante y frustrante. Las personas que vieron información potencialmente engañosa fueron influenciadas de manera confiable por las opiniones de grupos grandes, ya sea que esos grupos estuvieran alineados políticamente con el lector o no.

Es reconfortante porque sugiere que la gente está dispuesta a confiar en que si 80 de cada 100 personas pensaban que una historia era un poco sospechosa, incluso si 70 de esas 80 fueran de la otra parte, podría haber algo. Es frustrante por lo aparentemente fácil que es influir en una opinión simplemente diciendo que un grupo grande piensa que es de una forma u otra.

“De una manera práctica, estamos demostrando que las mentes de las personas se pueden cambiar a través de la influencia social independientemente de la política”, dijo el estudiante graduado Maurice Jakesch, autor principal del artículo. “Esto abre las puertas para utilizar la influencia social de una manera que pueda despolarizar los espacios en línea y unir a las personas”.

El partidismo todavía jugó un papel, hay que decirlo: las personas tenían un 21% menos de probabilidades de que su punto de vista influyera si la opinión del grupo estaba dirigida por personas que pertenecían al otro partido. Pero aun así, era muy probable que la gente se viera afectada por el juicio del grupo.

Parte de por qué la desinformación es tan frecuente es porque realmente no entendemos por qué es tan atractiva para las personas y qué medidas reducen ese atractivo, entre otras preguntas simples. Mientras las redes sociales estén dando tumbos en la oscuridad, es poco probable que encuentren una solución, pero cada estudio como este produce un poco más de luz.


Source link
Salir de la versión móvil