TikTok elude preguntas sobre la recopilación de datos biométricos en la audiencia del Senado

TikTok actualiza sus políticas con un enfoque en la seguridad de menores y LGBTQ, contenido apropiado para la edad y más

Meses después de que TikTok fuera llevado a su primera audiencia importante en el Congreso sobre la seguridad de la plataforma, la compañía está hoy anunciando una serie de actualizaciones de políticas y planes para nuevas funciones y tecnologías destinadas a hacer de la red social basada en videos un entorno más seguro, especialmente para los usuarios más jóvenes. Los cambios intentan abordar algunas inquietudes planteadas por los senadores de EE. UU. durante sus investigaciones sobre las prácticas comerciales de TikTok, incluida la prevalencia de contenido sobre trastornos alimentarios y engaños peligrosos en la aplicación, que son particularmente dañinos para adolescentes y adultos jóvenes. Además, TikTok está presentando una hoja de ruta para abordar otros problemas graves relacionados con las ideologías de odio con respecto a LGBTQ y la seguridad de los menores; este último implicará que los creadores designen la edad apropiada de su contenido.

TikTok también dijo que está ampliando su política para proteger la “seguridad, integridad, disponibilidad y confiabilidad” de su plataforma. Este cambio sigue a las noticias recientes de que la administración Biden está pesando nuevas reglas para que las aplicaciones chinas protejan los datos de los usuarios estadounidenses de ser explotados por adversarios extranjeros. La compañía dijo que este año abrirá centros de respuesta de investigación y monitoreo de incidentes cibernéticos en Washington, DC, Dublín y Singapur, como parte de este esfuerzo ampliado para prohibir mejor el acceso no autorizado al contenido, las cuentas, los sistemas y los datos de TikTok.

Otro de los cambios más grandes que se avecinan para TikTok es un nuevo enfoque para el diseño apropiado para la edad, un tema que ya está en la mente de los reguladores.

En el Reino Unido, los servicios digitales dirigidos a los niños ahora deben cumplir con la legislación normas que abordan la privacidad de los niños, el seguimiento, los controles parentales, el uso de “patrones oscuros” manipuladores y más. En los Estados Unidos, mientras tanto, los legisladores están trabajando para actualizar la ley de privacidad de los niños existente (TAZA) para agregar más protección a los adolescentes. TikTok ya tiene diferentes experiencias de productos para usuarios de diferentes edades, pero ahora también quiere identificar qué contenido es apropiado para adolescentes más jóvenes y mayores en comparación con adultos.

Créditos de imagen: El diseño apropiado para la edad de TikTok

TikTok dice que está desarrollando un sistema para identificar y restringir el acceso de los adolescentes a ciertos tipos de contenido. Aunque la compañía aún no comparte detalles específicos sobre el nuevo sistema, constará de tres partes. Primero, los miembros de la comunidad podrán elegir qué “zonas de confort” (o niveles de madurez del contenido) quieren ver en la aplicación. Los padres y tutores también podrán usar la función de control parental Family Pairing existente de TikTok para tomar decisiones al respecto en nombre de sus hijos menores. Finalmente, TikTok les pedirá a los creadores que especifiquen cuándo su contenido es más apropiado para una audiencia adulta.

Créditos de imagen: Función de emparejamiento familiar de TikTok

“Hemos escuchado directamente de nuestros creadores que a veces desean llegar solo a un público mayor específico. Entonces, como ejemplo, tal vez estén creando una comedia con humor para adultos u ofreciendo consejos aburridos sobre el lugar de trabajo que son relevantes solo para adultos. O tal vez están hablando de experiencias de vida muy difíciles”, explicó tracy elizabeth, El jefe de política de problemas de TikTok en EE. UU., que supervisa la seguridad menor de la plataforma, en una sesión informativa con los periodistas. “Entonces, dada esa variedad de temas, estamos probando formas de ayudar a empoderar mejor a los creadores para llegar a la audiencia prevista para su contenido específico”, señaló.

Elizabeth se unió a TikTok a principios de 2020 para centrarse en la seguridad de menores y fue ascendida a su nuevo puesto en noviembre de 2021, en el que ahora supervisa los equipos de Políticas de problemas de confianza y seguridad, incluidos Seguridad de menores, Integridad y autenticidad, Acoso e intimidación, Clasificación de contenido y Equipos de Investigación Aplicada. Antes de TikTok, pasó más de tres años y medio en Netflix, donde ayudó a la empresa a establecer su departamento de calificaciones de madurez global. Ese trabajo informará sus esfuerzos en TikTok.

Pero, señala Elizabeth, TikTok no irá tan lejos como para tener clasificaciones o etiquetas “visibles” en los videos de TikTok, lo que permitiría a las personas ver la naturaleza apropiada para la edad de un contenido determinado de un vistazo. En cambio, TikTok se basará en la categorización en el back-end, que se apoyará en que los creadores etiqueten su propio contenido de alguna manera. (YouTube adopta un enfoque similar, ya que les pide a los creadores que indiquen si su contenido es para adultos o “creado para niños”, por ejemplo).

TikTok dice que ahora está realizando una pequeña prueba en esta área, pero aún no tiene nada que compartir públicamente.

“Todavía no estamos en el lugar donde vamos a presentar el producto con todas las campanas y silbatos. Pero experimentaremos con un subconjunto muy pequeño de experiencias de usuario para ver cómo funciona esto en la práctica, y luego haremos ajustes”, señaló Elizabeth.

Créditos de imagen: Tik Tok

Políticas de contenido actualizadas de TikTok

Además de sus planes para un sistema de madurez de contenido, TikTok también anunció hoy que está revisando sus políticas de contenido en tres áreas clave: ideologías de odio, actos y desafíos peligrosos y contenido de trastornos alimentarios.

Si bien la compañía ya tenía políticas que abordaban cada uno de estos temas, ahora está aclarando y refinando estas políticas y, en algunos casos, moviéndolas a su propia categoría dentro de su Principios de la Comunidad para proporcionar más detalles y detalles sobre cómo se harán cumplir.

En términos de ideologías odiosas, TikTok está agregando claridad sobre temas prohibidos. La política ahora especificará que prácticas como nombrando y malentendidomisoginia o contenido que apoye o promueva terapia de conversión No se permitirán programas. La compañía dice que estos temas ya estaban prohibidos, pero escuchó de creadores y organizaciones de la sociedad civil que sus políticas escritas deberían ser más explícitas. GLAAD, que trabajó con TikTok en la política, compartió una declaración de su directora ejecutiva, Sarah Kate Ellis, en apoyo de los cambios, y señaló que esto “eleva el estándar para la seguridad LGBTQ en línea” y “envía un mensaje de que otras plataformas que afirman priorizar a LGBTQ la seguridad debería hacer lo mismo con acciones sustantivas como estas”, dijo.

Otra política que se está ampliando se centra en actos y desafíos peligrosos. Esta es un área que la compañía abordó recientemente con una actualización de su Centro de seguridad y otros recursos a raíz de tendencias virales inquietantes, peligrosas e incluso fatales. incluso “golpear a un maestro”, el desafío del apagón y otro que animaba a los estudiantes a destruir la propiedad escolar. TikTok negó alojar parte de este contenido en su plataforma y dijo, por ejemplo, que no encontró evidencia de ningún problema de asfixia en su aplicación y afirmó que “golpeó a un maestro”. no estaba una tendencia de TikTok. Sin embargo, TikTok aún tomó medidas para agregar más información sobre desafíos y engaños a su Centro de seguridad y agregó nuevas advertencias cuando se buscaba dicho contenido en la aplicación, según lo recomendado por expertos e investigadores en seguridad.

Hoy, TikTok dice que los actos y desafíos peligrosos también se desglosarán en su propia política, y lanzará una serie de videos de creadores como parte de una campaña más amplia de estilo PSA destinada a ayudar a los usuarios más jóvenes de TikTok a evaluar mejor el contenido en línea. Estos videos transmitirán el mensaje de que los usuarios deben “Detente, Piensa, Decide y Actúa”, cuando se encuentran con desafíos en línea, es decir, tómese un momento para hacer una pausa, considere si el desafío es real (o consulte con un adulto, si no está seguro), decida si es arriesgado o dañino, luego actúe informando el desafío en la aplicación. , y eligiendo no compartirlo.

Créditos de imagen: Tik Tok

Sobre el tema del contenido de trastornos alimentarios, un enfoque importante de la audiencia del Congreso no solo para TikTok, sino también para otras redes sociales como Instagram, YouTube y Snapchat, TikTok está tomando medidas más concretas. La compañía dice que ya elimina el contenido de “trastornos alimentarios”, como el contenido que glorifica la bulimia o la anorexia, pero ahora ampliará su política para restringir la promoción de contenido de “trastornos alimentarios”. Este término tiene como objetivo abarcar otros signos en etapas tempranas que luego pueden conducir a un diagnóstico de trastorno alimentario, como el conteo extremo de calorías, el ayuno a corto plazo e incluso el exceso de ejercicio. Sin embargo, esta es un área más difícil de abordar para TikTok debido a los matices involucrados en hacer estas llamadas.

La compañía reconoce que algunos de estos videos pueden estar bien por sí solos, pero necesita examinar qué tipo de “disyuntores” se pueden colocar cuando ve que las personas quedan atrapadas en burbujas de filtro donde consumen demasiado de este tipo. de contenido Esto sigue a las noticias que TikTok anunció en diciembre, donde la compañía compartió cómo su equipo de producto y su equipo de confianza y seguridad comenzó a colaborar en características para ayudar a “explotar” las burbujas de filtro de los usuarios para guiarlos, a modo de recomendaciones, hacia otras áreas para una experiencia más diversificada.

Si bien este trío de actualizaciones de políticas suena bien en papel, la aplicación aquí es fundamental y difícil. TikTok ha tenido pautas contra parte de este contenido, pero misoginia y transfóbico el contenido se ha deslizado a través de las grietas, en repetidas ocasiones. En ocasiones, los algoritmos de TikTok incluso promovieron contenido infractor, según a algunas pruebas. Este tipo de falla de moderación es un área en la que TikTok dice que pretende aprender y mejorar.

“En TikTok, creemos firmemente que sentirse seguro es lo que permite que la creatividad de todos realmente prospere y brille. Pero las políticas bien escritas, matizadas y centradas en el usuario no son la línea de meta. Más bien, la fuerza de cualquier política radica en la aplicabilidad”, dijo Tara Wadhwa, directora de políticas de TikTok para el equipo de Confianza y Seguridad de EE. UU., sobre las actualizaciones. “Aplicamos nuestras políticas en todas las funciones que ofrece TikTok y, al hacerlo, nos esforzamos absolutamente por ser consistentes y equitativos en nuestra aplicación”, dijo.

En la actualidad, el contenido pasa por tecnología que ha sido entrenada para identificar posibles infracciones de la política, lo que resulta en la eliminación inmediata si la tecnología está segura de que el contenido es infractor. De lo contrario, se mantiene por moderación humana. Pero este retraso afecta a los creadores, que no entienden por qué su contenido se retiene durante horas (¡o días!) mientras se toman las decisiones, o por qué se eliminó el contenido no infractor, lo que los obliga a presentar apelaciones. Estos errores, que a menudo se atribuyen a errores algorítmicos o humanos, pueden hacer que el creador se sienta personalmente atacado por TikTok.

Para abordar los problemas de moderación, TikTok dice que ha invertido en capacitación de moderadores especializados en áreas como positividad corporal, inclusión, derechos civiles, contradiscurso y más. La empresa afirma alrededor del 1% de todos los videos subidos en el tercer trimestre del año pasado, o 91 millones de videos, se eliminaron a través de políticas de moderación, muchos antes de que recibieran vistas. En la actualidad, la empresa también emplea a “miles” de moderadores, tanto como empleados estadounidenses a tiempo completo como moderadores contratados en el sudeste asiático, para brindar cobertura las 24 horas del día, los 7 días de la semana. Y ejecuta autopsias internamente cuando comete errores, dice.

Sin embargo, los problemas con la moderación y la aplicación de políticas se vuelven más difíciles con la escala, ya que simplemente hay más contenido para administrar. Y TikTok ahora ha crecido lo suficiente como para reducir el crecimiento de Facebook como una de las aplicaciones más grandes del mundo. De hecho, Meta solo informó que Facebook vio su primer declive en usuarios en el cuarto trimestre, lo que culpó, en parte, a TikTok. A medida que más jóvenes recurran a TikTok como su red social preferida, se les exigirá que no solo digan las cosas correctas, sino que las hagan bien.




Source link