No es ningún secreto que ambos espectadores y los creadores están confundidos por el rompecabezas que es el algoritmo de recomendación de YouTube. Ahora, un nuevo estudio by Mozilla sugiere que las recomendaciones de los usuarios no cambian mucho cuando usan opciones como “no me gusta” y “no me interesa” para evitar que YouTube sugiera videos similares.
El estudio de la organización observó que YouTube les mostró videos similares a los que habían rechazado, a pesar de que las personas usaban herramientas de comentarios o cambiaban su configuración. En lo que respecta a las herramientas que evitan las malas recomendaciones, hacer clic en “no me interesa” y “no me gusta” fue en su mayoría ineficaz, ya que solo evitó el 11% y el 12% de las malas recomendaciones, respectivamente. Métodos como “no recomendar el canal” y “eliminar del historial de reproducciones” obtuvieron una mayor efectividad, recortando el 43 % y el 29 % de las malas recomendaciones, respectivamente. En general, los usuarios que participaron en el estudio no estaban satisfechos con la capacidad de YouTube para mantener las malas recomendaciones fuera de sus feeds.
Créditos de imagen: Mozilla
El estudio de Mozilla tomó datos de 22,722 usuarios propios Reportero de arrepentimiento extensión del navegador, que permite a los usuarios reportar videos “lamentables” y controlar mejor sus recomendaciones, y analizó más de 567 millones de videos. Además, realizó una encuesta detallada con 2.757 Reportero de arrepentimiento usuarios para comprender mejor sus comentarios.
El informe señaló que el 78,3% de los participantes usaron los propios botones de comentarios de YouTube, cambiaron la configuración o evitaron ciertos videos para “enseñar” al algoritmo a sugerir cosas mejores. De las personas que tomaron algún tipo de medida para controlar mejor la recomendación de YouTube, el 39,3 % dijo que esas medidas no funcionaron.
“Nada ha cambiado. A veces informaba cosas como engañosas y spam y al día siguiente volvía a aparecer. Casi se siente como si la retroalimentación más negativa que proporciono a sus sugerencias sea la montaña de mierda más alta. Incluso cuando bloquea ciertas fuentes, eventualmente regresan”, dijo un encuestado.
De hecho, el 23% de las personas que hicieron un esfuerzo por cambiar la sugerencia de YouTube dieron una respuesta mixta. Citaron efectos como videos no deseados que regresan sigilosamente al feed o dedican mucho tiempo y esfuerzo para cambiar positivamente las recomendaciones.
“Sí, cambiaron, pero de mala manera. En cierto modo, me siento castigado por intentar cambiar de forma proactiva el comportamiento del algoritmo. De alguna manera, una menor interacción proporciona menos datos en los que basar las recomendaciones”, dijo otro participante del estudio.
Mozilla concluyó que incluso las herramientas más efectivas de YouTube para evitar malas recomendaciones no eran suficientes para cambiar los feeds de los usuarios. Dijo que la compañía “no está realmente tan interesada en escuchar lo que sus usuarios realmente quieren, y prefiere confiar en métodos opacos que impulsan el compromiso independientemente de los mejores intereses de sus usuarios”.
La organización recomendó a YouTube que diseñara controles de usuario fáciles de entender y brindara a los investigadores acceso a datos granulares para comprender mejor el motor de recomendaciones del sitio para compartir videos. Le hemos pedido a YouTube que proporcione un comentario sobre el estudio y actualizaremos la historia si recibimos una respuesta.
Mozilla realizó otro estudio basado en YouTube el año pasado que señaló que el algoritmo del servicio sugirió que el 71% de los videos que los usuarios “lamentaron” miraron, que incluían clips sobre información errónea y spam. Unos meses después de que se hiciera público este estudio, YouTube escribió una entrada de blog defendiendo su decisión de construir el sistema de recomendación actual y filtrar el contenido de “baja calidad”.
Después de años de depender de algoritmos para sugerir más contenido a los usuarios, las redes sociales, incluidas TikTok, Twitter e Instagram, están tratando de brindarles a los usuarios más opciones para refinar sus feeds.
Los legisladores de todo el mundo también están analizando más de cerca cómo los motores de recomendación opacos de diferentes redes sociales pueden afectar a los usuarios. La Unión Europea aprobó una Ley de Servicios Digitales en abril para aumentar la responsabilidad algorítmica de las plataformas, mientras que EE. UU. está considerando una Ley de Transparencia de Burbujas de Filtro bipartidista para abordar un problema similar.
Source link