TikTok tiene otro problema para agregar a su creciente pila: el organismo de control del consumidor de Italia abrió una investigación sobre las preocupaciones de seguridad del usuario, interviniendo después de que el desafío de la llamada “cicatriz francesa” se volviera viral en la plataforma para compartir videos en la que se ha visto a los usuarios aparentemente pellizcando sus caras para crear y mostrar líneas rojas como cicatrices falsas. (Sí, en serio.)
en un presione soltar hoy, la AGCM acusó a TikTok de carecer de sistemas de moderación adecuados para el contenido generado por los usuarios, afirmando que no cumple con las pautas de la comunidad establecidas en sus T&C donde afirma eliminar contenido peligroso, como publicaciones que incitan al suicidio, autolesiones y trastornos alimentarios. . Pero aparentemente pellizcarte no hace el listón.
La investigación de la AGCM se dirige a la empresa irlandesa TikTok Technology Limited, que dice que maneja las relaciones con los consumidores europeos de la plataforma, así como a las entidades de TikTok inglesas e italianas. Y dijo que llevó a cabo una inspección en la sede italiana de TikTok hoy, con la ayuda de la Unidad Especial Antimonopolio de la Guardia di Finanza.
La autoridad dijo que decidió investigar TikTok después de que surgieron numerosos videos de adolescentes que mostraban “comportamientos autolesivos”, incluido el desafío de la “cicatriz francesa” antes mencionado, que el mes pasado llevó a una serie de advertencias de los dermatólogos de que la actividad podría provocar marcas permanentes o enrojecimiento.
La AGCM dijo que le preocupa que TikTok no haya establecido sistemas de monitoreo de contenido adecuados, especialmente dada la presencia de usuarios particularmente vulnerables, como menores. También acusa a la plataforma de no aplicar sus propias reglas y eliminar contenido peligroso que, según sus T&C, no está permitido.
Además, quiere investigar el papel de la inteligencia artificial de TikTok en la difusión del desafío problemático.
La plataforma utiliza IA para seleccionar el contenido que se muestra a los usuarios en el feed ‘Para ti’, que está ‘personalizado’ en función del seguimiento y la creación de perfiles de los usuarios de TikTok, incluida la consideración de señales como otro contenido similar que han visto o con el que han interactuado a través de la función similar. Aunque cómo funciona exactamente es un secreto comercialmente guardado. Entonces, una pregunta a considerar es qué papel tuvo el algoritmo de TikTok en la amplificación y difusión de este desafío potencialmente dañino.
Nos comunicamos con la AGCM con preguntas, incluso si tiene la intención de auditar el algoritmo TikTok. Pero el regulador nos dijo que no puede proporcionar más comentarios públicos en este momento.
TikTok también fue contactado sobre la investigación. Un portavoz de la empresa nos envió este comunicado:
Más de 40,000 profesionales de seguridad dedicados trabajan para mantener segura a nuestra comunidad, y nos preocupamos especialmente por proteger a los adolescentes en particular. No permitimos contenido que muestre o promueva actividades y desafíos peligrosos, suicidio, autolesiones o conductas alimentarias poco saludables. Además, nuestras políticas de recomendación ayudan a garantizar que el contenido sea adecuado para una audiencia general y brindamos acceso a recursos de bienestar y seguridad en nuestra aplicación. Cooperaremos plenamente con las autoridades pertinentes para abordar cualquier pregunta sobre nuestras políticas y procesos.
Específicamente sobre el desafío de la cicatriz francesa, TikTok también dijo que su equipo de Confianza y Seguridad ha llevado a cabo evaluaciones y contenido restringido si muestra el pellizco en las mejillas. Agregó que solo los usuarios mayores de 18 años podrán ver dicho contenido y no será elegible para recomendación.
No especificó cuándo se habían realizado estas revisiones.
No es la primera vez que las preocupaciones sobre la seguridad de TikTok desencadenan la acción de los reguladores italianos: en 2021, el organismo de control de la protección de datos intervino ante las preocupaciones sobre la seguridad de los niños vinculadas a un desafío de “apagón” que aparentemente circulaba en la plataforma, después de que los medios locales informaran sobre la muerte. de un usuario menor de edad (una niña de diez años). Esa intervención llevó a TikTok a eliminar más de medio millón de cuentas que no pudo verificar que no pertenecieran a niños.
El mismo regulador también advirtió rápidamente a TikTok que no hiciera un cambio de política de privacidad planificado el verano pasado, después de que la plataforma dijera que dejaría de pedir el consentimiento del usuario para la orientación de sus anuncios. Después de que también intervinieran otras DPA, se abandonó el plan.
Más recientemente, TikTok ha estado luchando contra una creciente ola de preocupaciones de seguridad nacional que ha llevado a varios gobiernos occidentales a prohibir que su personal use la aplicación en dispositivos oficiales. Y la administración de Biden ha aumentado aún más la presión al amenazar con una prohibición total de la aplicación en EE. UU. si la empresa no se separa de su propiedad china.
Este informe se actualizó con las respuestas de TikTok y la AGCM
Source link