TikTok está probando una nueva función de propina directa con creadores seleccionados

TikTok para diversificar su feed ‘Para ti’, permite a los usuarios elegir los temas que quieren evitar

by

in

Tik Tok Anunciado esta mañana está adoptando un nuevo enfoque para su fuente “Para ti”: la fuente principal de la aplicación de video de formato corto, impulsada por sus recomendaciones algorítmicas. La compañía ya detalló cómo funciona su algoritmo para sugerir videos basados ​​en los patrones de participación de los usuarios dentro de su aplicación, pero admite que una categoría de contenido en particular puede ser “problemática”. La compañía ahora dice que está trabajando para implementar una nueva tecnología para interrumpir los “patrones repetitivos” en su aplicación y también está desarrollando una herramienta que permitiría a los usuarios opinar sobre el asunto al permitirles elegir qué temas quieren evitar.

La compañía explica en su anuncio que “demasiado de cualquier cosa, ya sean animales, consejos de acondicionamiento físico o viajes de bienestar personal, no encaja con la experiencia de descubrimiento diversa que pretendemos crear”. Sin embargo, TikTok no está diversificando su algoritmo porque las personas se quejan de ver demasiados videos de cachorros lindos; lo está haciendo porque los reguladores están tomando medidas enérgicas contra la tecnología y cuestionando los impactos dañinos de los algoritmos de recomendación no verificados, particularmente cuando se trata de la salud mental de los adolescentes. .

Los ejecutivos de Facebook e Instagram, junto con los de otras plataformas sociales, han sido llevados al Congreso y cuestionados sobre cómo sus aplicaciones han estado dirigiendo a los usuarios a contenido peligroso, incluidos temas como contenido sobre pro-anorexia y trastornos alimentarios, por ejemplo.

TikTok, en su anuncio, menciona los tipos de videos que podrían ser dañinos si se ven en exceso, incluidos videos con temas de “dietas o ejercicios extremos”, “tristeza” y “rupturas”. Si bien un usuario que muestra interés en videos de esta naturaleza puede encontrarlos interesantes, el algoritmo aún no es lo suficientemente inteligente como para saber que dirigir al usuario a más de lo mismo, repetidamente, podría dañarlo. Este problema no se limita a TikTok, por supuesto. En general, se está volviendo claro que los sistemas diseñados solo para aumentar la participación del usuario a través de medios automatizados lo harán a expensas de la salud mental de los usuarios. Si bien el Congreso actualmente está más interesado en cómo estos sistemas impactan a los jóvenes, algunos estudios, aunque debatidohan indicado que los algoritmos de recomendaciones no verificados también pueden jugar un papel en radicalizando usuarios que podrían sentirse atraídos por puntos de vista extremos.

TikTok dice que también probará nuevas formas de evitar recomendar una serie de contenido similar cuando los usuarios miran e interactúan con videos en estos tipos de videos potencialmente dañinos. Pero solo ofreció ejemplos de los tipos de videos que limitaría, no una lista completa.

Además, la compañía dijo que está desarrollando una tecnología que le ayudará a reconocer cuándo la página “Para usted” de un usuario no es muy diversa. Si bien es posible que el usuario no esté viendo videos que en realidad violen las políticas de TikTok, la compañía dijo que ver “tipos muy limitados de contenido… podría tener un efecto negativo si eso es la mayoría de lo que alguien ve, como contenido sobre la soledad o la pérdida de peso”.

Otra estrategia que TikTok planea implementar incluye una nueva función que permitiría a las personas dirigir el algoritmo por sí mismas. Podrían usar esta función para elegir palabras o hashtags asociados con el contenido que no quieren ver en su feed “Para ti”. Esto se sumaría a las herramientas existentes de TikTok para marcar los videos que no le gustan tocando “No me interesa”, por ejemplo.

Para ser claros, el anuncio de hoy de TikTok solo se trata de establecer una hoja de ruta de sus planes, no del lanzamiento real de dichos cambios y funciones. En cambio, es un intento de evitar que los reguladores realicen más investigaciones sobre su aplicación y sus efectos potencialmente dañinos. Su estrategia probablemente fue informada por los tipos de preguntas que se le hicieron tanto durante su propia audiencia en el Congreso como en las de sus rivales.

TikTok señala que la implementación real podría llevar tiempo e iteraciones antes de que todo salga bien.

“Continuaremos analizando cómo podemos asegurarnos de que nuestro sistema haga una diversidad de recomendaciones”, señaló la compañía.


Source link