Los 'pods' de Instagram juegan con el algoritmo coordinando me gusta y comentarios en millones de publicaciones

Los ‘pods’ de Instagram juegan con el algoritmo coordinando me gusta y comentarios en millones de publicaciones

Los investigadores de la NYU han identificado cientos de grupos de usuarios de Instagram, algunos con miles de miembros, que intercambian me gusta y comentarios sistemáticamente para jugar con los algoritmos del servicio y aumentar la visibilidad. En el proceso, también capacitaron a los agentes de aprendizaje automático para identificar si una publicación se ha manipulado de esta manera.

Los “pods”, como se los ha llamado, se encuentran en la línea entre el compromiso real y el falso, lo que los hace difíciles de detectar o tomar medidas contra ellos. Y aunque solían ser una amenaza de nicho (y todavía se comparan con cuentas falsas y actividad de bots), la práctica está creciendo en volumen y eficacia.

Los pods se encuentran fácilmente buscando en línea y algunos están abiertos al público. El lugar más común para ellos es Telegram, ya que es más o menos seguro y no tiene límite en la cantidad de personas que pueden estar en un canal. Las publicaciones vinculadas en el pod reciben Me gusta y son comentadas por otros en el grupo, con el efecto de que esas publicaciones tienen muchas más probabilidades de ser ampliamente difundidas por los algoritmos de recomendación de Instagram, lo que aumenta el compromiso orgánico.

La reciprocidad como servicio

La práctica de que los grupos se den “me gusta” a las publicaciones de los demás se denomina abuso de reciprocidad, y las redes sociales lo conocen muy bien, ya que eliminaron configuraciones de este tipo anteriormente. Pero la práctica nunca ha sido estudiada o caracterizada en detalle, explicó el equipo de la Escuela de Ingeniería Tandon de la Universidad de Nueva York.

“En el pasado, probablemente se han centrado más en las amenazas automatizadas, como dar credenciales a alguien para que las use, o cosas hechas por bots”, dijo la autora principal del estudio, Rachel Greenstadt. “Prestamos atención a esto porque es un problema creciente y es más difícil tomar medidas contra él”.

A pequeña escala, no suena demasiado amenazador, pero el estudio encontró casi 2 millones de publicaciones que habían sido manipuladas con este método, con más de 100 000 usuarios participando en grupos. Y esos son solo los que están en inglés, encontrados usando datos disponibles públicamente. El artículo que describe la investigación fue publicado en las Actas de la Conferencia World Wide Web y se puede leer aquí.

Es importante destacar que el gusto recíproco hace más que inflar el compromiso aparente. Las publicaciones enviadas a los pods obtuvieron una gran cantidad de Me gusta y comentarios artificiales, sí, pero esa actividad engañó al algoritmo de Instagram para que los promocionara aún más, lo que generó una participación mucho mayor incluso en las publicaciones que no se enviaron al pod.

Cuando se contactó para hacer comentarios, Instagram inicialmente dijo que esta actividad “viola nuestras políticas y tenemos numerosas medidas para detenerla”, y dijo que los investigadores no habían colaborado con la empresa en la investigación.

De hecho, el equipo estuvo en contacto con el equipo de abuso de Instagram desde el principio del proyecto, y parece claro del estudio que las medidas implementadas no han tenido, al menos en este contexto, el efecto deseado. Le señalé esto al representante y actualizaré esta publicación si recibo más información.

“Es una zona gris”

Pero no busque las horquillas todavía: el hecho es que este tipo de actividad es muy difícil de detectar, porque en realidad es idéntica en muchos aspectos a un grupo de amigos o usuarios con ideas afines que interactúan con el contenido de los demás exactamente de la misma manera. como le gustaría a Instagram. Y realmente, incluso clasificar el comportamiento como abuso no es tan simple.

“Es un área gris, y creo que la gente en Instagram piensa que es un área gris”, dijo Greenstadt. “¿Dónde termina? Si escribes un artículo y lo publicas en las redes sociales y lo envías a tus amigos, les gusta y a veces lo hacen por ti, ¿eres parte de un grupo? El problema aquí no es necesariamente que las personas estén haciendo esto, sino cómo el algoritmo debería tratar esta acción, en términos de amplificar o no amplificar ese contenido”.

Obviamente, si la gente lo hace sistemáticamente con miles de usuarios e incluso cobra por el acceso (como hacen algunos grupos), eso equivale a un abuso. Pero trazar la línea no es fácil.

Más importante es que la línea no se puede trazar a menos que primero defina el comportamiento, lo que los investigadores hicieron al inspeccionar cuidadosamente las diferencias en los patrones de me gusta y comentarios en publicaciones ordinarias y potenciadas por pod.

“Tienen firmas lingüísticas diferentes”, explicó la coautora Janith Weerasinghe. “Qué palabras usan, los patrones de tiempo”.

Como era de esperar, los extraños obligados a comentar publicaciones que en realidad no les interesan tienden a usar un lenguaje genérico, diciendo cosas como “buena foto” o “wow” en lugar de comentarios más personales. Algunos grupos en realidad advierten contra esto, dijo Weerasinghe, pero no muchos.

La lista de las principales palabras utilizadas se lee, como era de esperar, como la sección de comentarios en cualquier publicación popular, aunque tal vez eso habla de una falta de expresividad más general en Instagram que cualquier otra cosa:

Pero el análisis estadístico de miles de publicaciones de este tipo, tanto normales como impulsadas por pods, mostró una prevalencia claramente mayor de comentarios de “apoyo genérico”, que a menudo aparecen en un patrón predecible.

Estos datos se usaron para entrenar un modelo de aprendizaje automático, que cuando se soltó en publicaciones que nunca había visto, pudo identificar publicaciones que recibieron el tratamiento de pod con una precisión de hasta el 90%. Esto podría ayudar a sacar a la luz otros pods, y no se equivoquen, esto es solo una pequeña muestra de lo que hay.

“Obtuvimos una muestra bastante buena para el período de tiempo de las cápsulas fácilmente accesibles y fáciles de encontrar”, dijo Greenstadt. “La gran parte del ecosistema que nos falta son los pods que son más pequeños pero más lucrativos, que ya tienen que tener cierta presencia en las redes sociales para unirse. No somos personas influyentes, por lo que realmente no pudimos medir eso”.

La cantidad de pods y las publicaciones que manipulan ha crecido constantemente en los últimos dos años. Se encontraron alrededor de 7,000 publicaciones durante marzo de 2017. Un año después, ese número aumentó a casi 55,000. En marzo de 2019 hubo más de 100 000, y el número siguió aumentando hasta el final de los datos del estudio. Es seguro decir que los pods ahora publican más de 4000 veces al día, y cada uno recibe una gran cantidad de participación, tanto artificial como orgánica. Los pods ahora tienen 900 usuarios en promedio y algunos tenían más de 10,000.

Puede estar pensando: “Si un puñado de académicos que usan API disponibles públicamente y Google pudieron resolver esto, ¿por qué Instagram no lo ha hecho?”

Como se mencionó anteriormente, es posible que los equipos simplemente no hayan considerado que esto sea una amenaza importante y, en consecuencia, no hayan creado políticas o herramientas para prevenirlo. Podría decirse que las reglas que prohíben el uso de una “aplicación o servicio de terceros para generar me gusta, seguidores o comentarios falsos” no se aplican a estos pods, ya que en muchos sentidos son idénticos a redes de usuarios perfectamente legítimas (aunque Instagram aclaró que considera pods como violando la regla). Y ciertamente la amenaza de cuentas falsas y bots es de mayor escala.

Y si bien es posible que las cápsulas puedan usarse como un lugar para la desinformación patrocinada por el estado u otros fines políticos, el equipo no notó que sucediera nada en ese sentido (aunque no lo estaban buscando específicamente). Entonces, por ahora, lo que está en juego sigue siendo relativamente pequeño.

Dicho esto, Instagram claramente tiene acceso a datos que ayudarían a definir y detectar este tipo de comportamiento, y sus políticas y algoritmos podrían modificarse para acomodarlo. Sin duda, a los investigadores de la NYU les encantaría ayudar.


Source link