Hace un año, Twitter comenzó a probar una función que incitaría a los usuarios a hacer una pausa y reconsiderar antes de responder a un tweet usando un lenguaje “dañino”, es decir, un lenguaje que era abusivo, trolling u ofensivo por naturaleza. Hoy, la compañía dice que está lanzando versiones mejoradas de estas indicaciones a los usuarios de idioma inglés en iOS y pronto, Android, después de ajustar sus sistemas que determinan cuándo enviar los recordatorios para comprender mejor cuándo el idioma que se usa en la respuesta es realmente dañino.
La idea detrás de estas desaceleraciones forzadas, o empujones, es aprovechar trucos psicologicos para ayudar a las personas a tomar mejores decisiones sobre lo que publican. Los estudios tienen indicado que introducir un empujón como este puede llevar a las personas a editar y cancelar publicaciones de las que de otra manera se habrían arrepentido.
Las propias pruebas de Twitter encontraron que eso también es cierto. Dijo que el 34% de las personas revisaron su respuesta inicial después de ver el mensaje, o eligieron no enviar la respuesta en absoluto. Después de que se les preguntara una vez, las personas compusieron un 11% menos de respuestas ofensivas en el futuro, en promedio. Eso indica que la solicitud, al menos para algunos grupos pequeños, tuvo un impacto duradero en el comportamiento del usuario. (Twitter también descubrió que los usuarios a los que se les preguntó tenían menos probabilidades de recibir respuestas dañinas, pero no cuantificó más esta métrica).
Créditos de imagen: Gorjeo
Sin embargo, las primeras pruebas de Twitter encontraron algunos problemas. Descubrió que sus sistemas y algoritmos a veces tenían dificultades para comprender los matices que ocurren en muchas conversaciones. Por ejemplo, no siempre podía diferenciar entre respuestas ofensivas y sarcasmo o, a veces, incluso bromas amistosas. También luchó para dar cuenta de aquellas situaciones en las que el lenguaje está siendo reclamado por comunidades subrepresentadas y luego utilizado de manera no dañina.
Las mejoras que se implementarán a partir de hoy tienen como objetivo abordar estos problemas. Twitter dice que ha realizado ajustes a la tecnología en estas áreas y otras. Ahora, se tendrá en cuenta la relación entre el autor y el autor de la respuesta. Es decir, si ambos se siguen y se responden a menudo, es más probable que comprendan mejor el tono de comunicación preferido que otra persona que no lo hace.
Twitter dice que también ha mejorado la tecnología para detectar con mayor precisión el lenguaje fuerte, incluidas las blasfemias.
También ha facilitado que aquellos que ven las indicaciones le hagan saber a Twitter si la indicación fue útil o relevante, datos que pueden ayudar a mejorar aún más los sistemas.
Queda por ver qué tan bien funciona todo esto, por supuesto.
Créditos de imagen: Gorjeo
Si bien cualquier característica que pueda ayudar a reducir parte de la toxicidad en Twitter puede ser útil, esto solo aborda un aspecto del problema más grande: las personas que se involucran en intercambios acalorados de los que luego podrían arrepentirse. Hay otros problemas en Twitter con respecto al contenido abusivo y tóxico que esta solución por sí sola no puede abordar.
Estos “mensajes de respuesta” no son la única vez que Twitter ha utilizado el concepto de empujones para afectar el comportamiento del usuario. También recuerda a los usuarios que lean un artículo antes de retuitear y amplíelo en un esfuerzo por promover discusiones más informadas en su plataforma.
Twitter dice que las indicaciones mejoradas se están implementando para todos los usuarios de idioma inglés en iOS a partir de hoy y llegarán a Android en los próximos días.
Source link