TikTok ha desarrollado una mala reputación por albergar peligrosos “desafíos” virales en su aplicación, que en el peor de los casos, han llevado a herida grave o la muerte, como en el caso del desafío del apagón que llevó a los reguladores italianos a tomar medidas contra la red social este año para eliminar a los usuarios menores de edad. Más recientemente, la aplicación ha aparecido en los titulares por desafíos que han animado a los estudiantes a golpear a los maestros y destruir la propiedad escolar. A medida que se avecina la amenaza potencial de una mayor regulación, TikTok comparte hoy los resultados de su investigación sobre desafíos virales y engaños, así como también cómo está tomando medidas.
Hasta la fecha, TikTok a menudo ha tratado de minimizar su participación en desafíos virales.
En octubre, TikTok lo negó el desafío de “abofetear a un maestro” era una tendencia de TikTok, por ejemplo. Después de que un niño muriera al intentar el desafío del apagón, TikTok emitió un comunicado que decía que la compañía no encontró evidencia de ningún desafío relacionado con la asfixia en su plataforma. Repitió esta afirmación nuevamente durante una reciente audiencia en el Senado dedicada al tema de la seguridad de los menores en las plataformas sociales. Pero la senadora Blackburn (R-TN) le dijo al representante de TikTok que su personal había encontrado los “videos desmayados”, junto con otro contenido perturbador.
Hoy, TikTok es liberando los resultados de su investigación encargada sobre desafíos dañinos y engaños.
La compañía dijo que lanzó un proyecto global hace unos meses sobre este tema, que incluyó una encuesta de más de 10,000 adolescentes, padres y maestros de Argentina, Australia, Brasil, Alemania, Italia, Indonesia, México, Reino Unido, Estados Unidos y Vietnam. También encargó a una agencia de salvaguardia independiente, Praesidio Safeguarding, que escribiera un informe que detallara los hallazgos y sus recomendaciones. Además, se pidió a un panel de 12 destacados expertos en seguridad para adolescentes que revisaran el informe y proporcionaran su propia opinión. Finalmente, TikTok se asoció con el Dr. Richard Graham, un psiquiatra clínico infantil que se especializa en el desarrollo saludable de los adolescentes, y la Dra. Gretchen Brion-Meisels, una científica del comportamiento que se especializa en la prevención de riesgos en la adolescencia, para ofrecer más orientación.
Vale la pena examinar los datos que descubrió el informe, ya que hablan de cómo las redes sociales pueden ser un caldo de cultivo para contenido dañino, como estos desafíos virales, debido a la forma en que los jóvenes usan mucho las plataformas sociales. Y los jóvenes tienen un apetito por el riesgo mucho mayor debido a dónde se encuentran en términos de su desarrollo psicológico.
Como explicó el Dr. Graham, la pubertad es este período extraordinario que trabaja para preparar a un niño para la transición a la vida adulta. Es un momento de “desarrollo masivo del cerebro”, dijo.
“Ahora hay mucho enfoque en comprender por qué los adolescentes hacen las cosas que hacen, porque esos centros de juicio se están revisando nuevamente en preparación para una toma de decisiones y un pensamiento más complejos en el futuro”, explicó.
El Dr. Graham dijo que los cerebros de los jóvenes se están desarrollando en términos de pensamiento abstracto, el reconocimiento de estados psicológicos y emocionales más complejos y una consideración más sofisticada de las relaciones. Y a medida que todo esto está en marcha, aumenta su deseo de aprender sobre el mundo que los rodea, y esto puede incluir el deseo, a veces, de participar en actividades más riesgosas y probarse a sí mismos o ganar la aprobación de sus compañeros. A veces, estas actividades “peligrosas” son relativamente inofensivas, como ver una película de miedo o subirse a una montaña rusa. Pero otras veces, los adolescentes y otros jóvenes pueden optar por involucrarse en algo que creen que realmente los expandirá de alguna manera, y esto los atrae a desafíos más riesgosos.
“A veces van a… morder más de lo que pueden masticar, y tienen una experiencia que en cierto modo los traumatiza al menos a corto plazo, pero [the teens’] La aspiración es crecer”, señaló.
Además, los desafíos virales, en general, pueden apelar al deseo de los adolescentes de obtener la aprobación de amigos y compañeros porque generan Me gusta y vistas. Pero la forma en que los adolescentes evalúan si los desafíos son seguros tiene fallas: tienden a mirar más videos o pedir consejo a sus amigos. Mientras tanto, los padres y los maestros a menudo han dudado en hablar sobre desafíos y engaños por temor a despertar más interés en ellos.
El estudio encontró que la mayoría de los adolescentes no participan en los desafíos más peligrosos. Solo el 21 % de los adolescentes del mundo participaba en desafíos y solo el 2 % participaba en los que se consideraban riesgosos. Un 0,3% aún menor ha participado en un desafío que consideraban “realmente peligroso”. La mayoría pensó que la participación en los desafíos fue neutral (54 %) o positiva (34 %), no negativa (11 %). Y el 64% dijo que la participación tuvo un impacto positivo en sus amistades y relaciones.
La investigación también examinó los desafíos del engaño, como Ballena azul o momo – que propagan la creencia de que hay un mal actor que dirige a los niños a participar en actividades dañinas que se intensifican hasta la autolesión o el suicidio. Sesenta y uno por ciento de los adolescentes dijeron que buscan más información sobre los engaños cuando los encuentran para tratar de verificar si son reales, pero tiende a permanecer mucha confusión en torno a los engaños. Los adolescentes sospechan que las personas que vuelven a publicar los engaños lo hacen por me gusta y vistas (el 62 % lo cree) o porque creen que el engaño es real (el 60 % lo cree). Cuarenta y seis por ciento de los adolescentes expuestos a engaños buscaron apoyo o consejo, lo que indica que los adolescentes se beneficiarían de los recursos que los ayudan a comprender el material falso.
Aunque la investigación indica que queda mucho por hacer para que las plataformas de redes sociales aborden los problemas relacionados con la seguridad del usuario, la respuesta de TikTok aquí es bastante mínima.
La compañía anunció hoy que agregará a su Centro de seguridad una nueva sección dedicado a desafíos y engaños, y está revisando parte del lenguaje utilizado en las etiquetas de advertencia que aparecen cuando las personas buscan engaños relacionados con el suicidio o las autolesiones, según las sugerencias de los investigadores.
Teniendo en cuenta la naturaleza relativamente menor de estos cambios, esencialmente un documento de ayuda y un texto revisado, es interesante notar que TikTok transmitió en vivo una presentación sobre su investigación a los medios durante una hora el lunes antes del anuncio de hoy, y envió por correo electrónico las 38 páginas completas. informe de investigación a los periodistas. Al hacerlo, parece que TikTok quiere diferenciarse de Facebook, donde la investigación interna condenatoria se mantuvo en silencio hasta denunciante Frances Haugen presentó miles de documentos que indicaban que Facebook sabía de sus problemas y no tomó medidas.
TikTok quiere ser visto como un participante significativo en el proceso de investigación, pero, en última instancia, los cambios que está realizando no resuelven el problema. Al final del día, el contenido dañino es un desafío de moderación y un problema que se deriva de la naturaleza de las redes sociales en sí. Eliminar el contenido dañino requeriría un sistema diseñado desde cero para no incentivar lo impactante o escandaloso a cambio de me gusta y vistas. No es así como se construyen la mayoría de las redes sociales.
TikTok también dijo que buscará aumentos repentinos en el contenido infractor, incluido el comportamiento potencialmente peligroso, vinculado a hashtags.
Por ejemplo, si un hashtag como #FoodChallenge, que se usa comúnmente para compartir recetas de comida e inspiración culinaria, comenzó a ver picos donde más contenido violaba las políticas de TikTok, entonces se alertaría al equipo de moderación para buscar las causas de este pico para que podrían tomar medidas.
O, en otras palabras, TikTok dice que ahora moderará mejor el contenido, algo que los usuarios pensaron que la empresa estaba haciendo de todos modos.
El informe completo de la investigación se encuentra a continuación.
Informe de Praesidio: exploración de respuestas eficaces de educación preventiva a los peligrosos desafíos en línea por TechCrunch en Scribd