YouTube TV pricing goes up by $5/month starting tomorrow

YouTube reducirá las recomendaciones de la teoría de la conspiración en el Reino Unido

YouTube está ampliando un ajuste experimental a su motor de recomendación que pretende reducir la amplificación de las teorías de conspiración en el mercado del Reino Unido.

En enerola plataforma para compartir videos dijo que estaba realizando cambios en los EE. UU. para limitar la difusión del contenido de la teoría de la conspiración, como la ciencia basura y las afirmaciones falsas sobre eventos históricos, luego de las críticas sostenidas sobre cómo su plataforma acelera el clickbait dañino.

Una portavoz de YouTube confirmó a TechCrunch que ahora está en proceso de implementar la misma actualización para suprimir las recomendaciones de conspiración en el Reino Unido. Ella dijo que tomará algún tiempo para que surta efecto, sin proporcionar detalles sobre cuándo exactamente se aplicarán los cambios por completo.

La portavoz dijo que YouTube reconoce que necesita hacer más para reformar un sistema de recomendación que se ha demostrado una y otra vez que elimina el clickbait dañino y la desinformación a la vista general. Aunque YouTube afirma que esta espiral negativa ocurre solo a veces, y dice que, en promedio, su sistema dirige a los usuarios a los videos principales.

La compañía llama al tipo de contenido basura que ha estado experimentando y recomendando con menos frecuencia “límite”, diciendo que es material que sigue la línea de sus políticas de contenido aceptable. En la práctica, esto significa cosas como videos que afirman sin sentido que la tierra es plana, o mentiras descaradas sobre eventos históricos como los ataques terroristas del 11 de septiembre, o promueven basura dañina sobre curas milagrosas falsas para enfermedades graves.

Todo lo cual se puede archivar bajo la desinformación ‘aceite de serpiente’. Pero para YouTube, este tipo de basura ha sido un aceite de serpiente muy lucrativo como consecuencia del imperativo comercial de Google de mantener los ojos atentos para publicar más anuncios.

Sin embargo, más recientemente, la reputación de YouTube se ha visto afectada ya que su plataforma ha sido culpada por un impacto extremista y radicalizador en las mentes jóvenes e impresionables al alentar a los usuarios a tragarse la ciencia basura y cosas peores.

Un ex ingeniero de Google, Guillaume Chaslot, que trabajó en los algoritmos de recomendación de YouTube se hizo público el año pasado para condenar lo que describió como el impacto “tóxico” del motor que, dijo, “pervierte la discusión cívica” al alentar a los usuarios a crear contenido límite altamente atractivo.

Múltiples investigaciones realizadas por periodistas también han profundizado en casos en los que se ha culpado a YouTube de empujar a las personas, incluidos los jóvenes e impresionables, hacia puntos de vista de extrema derecha a través de la madriguera radicalizadora de su algoritmo, que expone a los usuarios a puntos de vista cada vez más extremos sin proporcionar ningún contexto. sobre lo que les anima a ver.

Por supuesto que no tiene por qué ser así. Imagínese si a un espectador de YouTube que buscó un video producido por un deportista de choque partidista se le sugirió un punto de vista político menos extremo o incluso completamente alternativo. O solo vio videos relajantes de yoga y atención plena en su feed ‘up next’.

YouTube ha evitado un enfoque más equilibrado del contenido que sus algoritmos seleccionan y recomiendan por motivos comerciales. Pero también puede haber estado interesado en evitar llamar la atención abiertamente sobre el hecho de que sus algoritmos actúan como editores de facto.

Y las decisiones editoriales son las que toman las empresas de medios. Entonces, se deduce que las plataformas tecnológicas que realizan sugerencias y clasificaciones algorítmicas de contenido deben ser reguladas como lo son las empresas de medios. (Y todos los gigantes tecnológicos en el espacio de contenido generado por el usuario han estado haciendo todo lo posible para evadir ese tipo de estado de derecho durante años).

Está claro que Google tiene el poder de eliminar la basura.

Una portavoz de YouTube nos dijo que la prueba de EE. UU. de una reducción en las recomendaciones de basura de conspiración ha llevado a una caída en la cantidad de visitas de recomendaciones de más del 50%.

Aunque también dijo que la prueba aún se está acelerando, lo que sugiere que el impacto en la visualización y la amplificación de las tonterías de la conspiración podría ser aún mayor si YouTube degradara más agresivamente este tipo de BS.

Lo que está muy claro es que la empresa tiene el poder de mover palancas algorítmicas que determinan lo que ven miles de millones de personas, incluso si no lo cree, eso también podría influir en cómo se sienten y en lo que creen. Lo cual es una concentración de poder que debería preocupar a personas de todos los lados del espectro político.

Si bien YouTube podría limitar aún más la toxicidad amplificada algorítmicamente, el problema es que su negocio continúa monetizando el compromiso, y las tonterías fantásticas de clickbait son, por naturaleza, muy atractivas. Entonces, por razones puramente comerciales, tiene un contraincentivo para no eliminar toda la basura de YouTube.

Sin embargo, queda por ver cuánto tiempo la compañía puede mantener este acto de equilibrio. En los últimos años, algunos de los principales anunciantes de YouTube han intervenido para dejar en claro que no les gusta que sus marcas se asocien con contenido abusivo y extremista. Lo que representa un riesgo comercial para YouTube, si aumenta la presión de los anunciantes.

Al igual que todas las plataformas tecnológicas poderosas, su negocio también enfrenta un escrutinio creciente por parte de políticos y legisladores. Y las preguntas sobre cómo garantizar que tales plataformas de contenido no tengan un efecto nocivo en las personas y las sociedades ahora son una prioridad para los gobiernos en algunos mercados de todo el mundo.

Esa presión política, que es una respuesta a la presión pública, después de una serie de escándalos, es poco probable que desaparezca.

Por lo tanto, la respuesta aún glacial de YouTube para abordar cómo sus algoritmos que abarcan la población seleccionan negativamente cosas que son socialmente divisivas e individualmente tóxicas aún puede volver a morderlo, en forma de leyes que ponen límites firmes a sus poderes para presionar a las personas.


Source link