Al escuchar con Snap, TikTok y YouTube, los legisladores promocionan nuevas reglas para proteger a los niños en línea

Grupos de derechos de los niños denuncian la ‘discriminación de diseño’ de TikTok

La investigación que examina la configuración predeterminada y los términos y condiciones ofrecidos a los menores por los gigantes de las redes sociales TikTok, WhatsApp e Instagram en 14 países diferentes, incluidos EE. UU., Brasil, Indonesia y el Reino Unido, descubrió que las tres plataformas no ofrecen el mismo nivel de privacidad y seguridad. protecciones para los niños en todos los mercados donde operan.

El nivel de protección que reciben los menores en un servicio puede depender del lugar del mundo en el que viven, según el nuevo informe, titulado: Plataformas globales, protecciones parciales, que encontró una variación “significativa” en la experiencia de los niños en diferentes países en “aparentemente plataformas idénticas”.

La investigación fue realizada por Juego limpiouna organización sin fines de lucro que aboga por el fin del marketing dirigido a los niños.

Se descubrió que TikTok era particularmente problemático en este sentido. Y, junto con la publicación del informe de Fairplay, la compañía ha sido destacada en una carta conjunta, firmada por casi 40 grupos defensores de la seguridad infantil y los derechos digitales, pidiéndole que ofrezca un enfoque de “Seguridad por diseño” y “Derechos de los niños por diseño”. a nivel mundial, en lugar de solo proporcionar los estándares más altos en regiones como Europa, donde los reguladores han tomado medidas tempranas para proteger a los niños en línea.

Citando información del informe de Fairplay, las 39 organizaciones de protección infantil y defensa de los derechos digitales de 11 países, incluida la Fundación 5Rights del Reino Unido, el Tech Transparency Project, el Africa Digital Rights Hub en Ghana y la Eating Disorders Coalition for Research, Policy & Action, para nombre algunos, han firmado conjuntamente la carta al CEO de TikTok, Shou Zi Chew, instándolo a abordar las discriminaciones de diseño clave destacadas en el informe.

Estos incluyen discrepancias en el lugar donde TikTok ofrece una experiencia de diseño “apropiada para la edad” para menores, como la configuración predeterminada en privado (como lo hace en el Reino Unido y ciertos mercados de la UE), mientras que, en otros lugares, se encontró que los usuarios de 17 años de edad por defecto a las cuentas públicas.

El informe también identificó muchos mercados (no europeos) donde TikTok no proporciona sus términos de servicio en el idioma materno de los jóvenes. También critica la falta de transparencia en torno a los requisitos de edad mínima: encontrar que TikTok a veces proporciona a los usuarios información contradictoria, lo que dificulta que los menores sepan si el servicio es apropiado para ellos.

“Muchos de los usuarios jóvenes de TikTok no son europeos; Los mercados más grandes de TikTok están en Estados Unidos, Indonesia y Brasil. Todos los niños y jóvenes merecen una experiencia apropiada para su edad, no solo los de Europa”, argumentan los autores del informe.

La metodología para la investigación de Fairplay involucró a investigadores centrales, con sede en Londres y Sídney, que analizaron las políticas de privacidad y los términos y condiciones de las plataformas, con el apoyo de una red global de organizaciones de investigación locales, lo que incluyó la creación de cuentas experimentales para explorar variaciones en la configuración predeterminada ofrecida. a jóvenes de 17 años en diferentes mercados.

Los investigadores sugieren que sus hallazgos cuestionan las afirmaciones de los gigantes de las redes sociales de preocuparse por proteger a los niños, ya que se puede demostrar que no brindan los mismos estándares de seguridad y privacidad a los menores en todas partes.

En cambio, las plataformas de redes sociales parecen estar aprovechando las brechas en el mosaico global de protecciones legales para menores para priorizar objetivos comerciales, como impulsar el compromiso, a expensas de la seguridad y privacidad de los niños.

En particular, se descubrió que los niños en el sur global y algunas otras regiones estaban expuestos a un diseño más manipulador que los niños en Europa, donde ya se han promulgado marcos legales para proteger su experiencia en línea, como el Código de Diseño Apropiado para la Edad del Reino Unido (vigente desde septiembre de 2020); o el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que comenzó a aplicarse en mayo de 2018, lo que requiere que los procesadores de datos tengan un cuidado especial para incorporar protecciones donde los servicios procesan información de menores, con el riesgo de multas importantes por incumplimiento.

Cuando se le pidió que resumiera las conclusiones de la investigación en una línea, una portavoz de Fairplay le dijo a TechCrunch: “En términos de un resumen de una línea, es que la regulación funciona y las empresas tecnológicas no actúan sin ella”. También sugirió que es correcto concluir que la falta de regulación deja a los usuarios más vulnerables a “los caprichos del modelo de negocios de la plataforma”.

En el informe, los autores hacen un llamamiento directo a los legisladores para que implementen entornos y políticas que brinden “la mayor protección para el bienestar y la privacidad de los jóvenes”.

Es probable que los hallazgos del informe se sumen a los llamados a los legisladores fuera de Europa para que intensifiquen sus esfuerzos para aprobar leyes que protejan a los niños en la era digital y eviten el riesgo de que las plataformas concentren sus comportamientos más discriminatorios y depredadores en menores que viven en mercados que carecen de recursos legales. comprueba la ‘datificación’ por defecto comercial.

En los últimos meses, los legisladores de California han estado tratando de aprobar una Código de diseño apropiado para la edad al estilo del Reino Unido. Si bien, a principios de este año, varios senadores de los EE. UU. propusieron una Ley de seguridad en línea para niños, ya que el problema de la seguridad de los niños en línea ha atraído más atención, aunque aprobar leyes de privacidad a nivel federal de cualquier tipo en los EE. UU. sigue siendo un gran desafío.

En una declaración de apoyo, Rys Farthing, autor del informe e investigador de Fairplay, señaló: “Es preocupante pensar que estas empresas están eligiendo a qué jóvenes brindar las mejores protecciones de seguridad y privacidad. Es razonable esperar que una vez que una empresa haya resuelto cómo hacer que sus productos sean un poco mejores para los niños, lo implementarán universalmente para todos los jóvenes. Pero una vez más, las empresas de redes sociales nos están defraudando y continúan diseñando riesgos innecesarios en sus plataformas. Los legisladores deben intervenir y aprobar regulaciones que obliguen a los proveedores de servicios digitales a diseñar sus productos de manera que funcionen para los jóvenes”.

“Muchas jurisdicciones de todo el mundo están explorando este tipo de regulación”, señaló también en comentarios que acompañan a la publicación del informe. “En California, el Código de Diseño Apropiado para la Edad que se encuentra frente a la Asamblea estatal podría garantizar que se eliminen algunos de estos riesgos para los jóvenes. De lo contrario, puede esperar que las empresas de redes sociales les ofrezcan privacidad y seguridad de segundo nivel”.

Cuando se le preguntó por qué Meta, propietaria de Instagram y WhatsApp, no recibe una carta crítica de los grupos de defensa, la portavoz de Fairplay dijo que sus investigadores encontraron que TikTok es “con mucho la plataforma de peor desempeño”, por lo que los cosignatarios sintieron “el mayor urgencia” para centrar su incidencia en ello. (Aunque el informe en sí también analiza problemas con las dos plataformas propiedad de Meta).

“TikTok tiene más de mil millones de usuarios activos, y varias estimaciones globales sugieren que entre un tercio y una cuarta parte son menores de edad. Las decisiones de seguridad y privacidad que toma su empresa tienen la capacidad de afectar a 250 millones de jóvenes en todo el mundo, y estas decisiones deben garantizar que los mejores intereses de los niños y jóvenes se cumplan y se cumplan por igual”, escriben los grupos de defensa en la carta.

“Lo instamos a que adopte un enfoque de seguridad desde el diseño y derechos de los niños desde el diseño y realice de inmediato una evaluación de riesgos de sus productos a nivel mundial para identificar y remediar los riesgos de privacidad y seguridad en su plataforma. Cuando se encuentre una práctica o política local para maximizar la seguridad o la privacidad de los niños, TikTok debería adoptarla a nivel mundial. Todos los usuarios más jóvenes de TikTok merecen las protecciones más sólidas y la mayor privacidad, no solo los niños de las jurisdicciones europeas donde los reguladores han tomado medidas tempranas”.

Si bien los legisladores europeos pueden tener motivos para sentirse un poco presumidos a la luz del estándar relativamente más alto de protección que los investigadores de Fairplay descubrieron que se ofrece a los niños en la región, la palabra clave allí es relativa: incluso en Europa, una región que se considera el líder mundial de facto. en los estándares de protección de datos: TikTok, en los últimos años, se ha enfrentado a una serie de quejas sobre la seguridad y la privacidad de los niños; incluyendo demandas de estilo de acción de clase e investigaciones regulatorias sobre cómo maneja los datos de los niños.

Las críticas sobre la seguridad infantil de TikTok en la región persisten, especialmente en relación con su amplio perfilado y selección de usuarios, y muchas de las acciones legales e investigaciones antes mencionadas siguen en curso y sin resolver, incluso cuando surgen nuevas preocupaciones.

Solo esta semana, por ejemplo, la agencia italiana de protección de datos hizo sonar la alarma sobre un cambio planificado en la política de privacidad de TikTok que, según sugirió, no cumple con las leyes de privacidad existentes de la UE, emitiendo una advertencia formal. Instó a la plataforma a no persistir con un cambio que, según dijo, podría tener ramificaciones preocupantes para los menores en el servicio a quienes se les pueden mostrar anuncios “personalizados” inadecuados.

En 2021, la autoridad de Italia también intervino luego de preocupaciones sobre la seguridad de los niños que, según dijo, estaban relacionadas con un desafío de TikTok, ordenando a la compañía que bloqueara a los usuarios cuya edad no podía verificar. TikTok eliminó más de medio millón de cuentas en el país que dijo que no podía confirmar que no tuvieran al menos 13 años.


Source link