Snapchat agrega nuevos controles parentales que bloquean el contenido 'sensible' y 'sugerente' para que los adolescentes no lo vean

Snapchat agrega nuevos controles parentales que bloquean el contenido ‘sensible’ y ‘sugerente’ para que los adolescentes no lo vean

Snapchat lanzó controles parentales en su aplicación el año pasado a través de la nueva función ‘Family Center’. Hoy, la compañía anunció a través de un publicar en su Centro de privacidad y seguridad en línea ahora agregará capacidades de filtrado de contenido que permitirán a los padres restringir la exposición de los adolescentes a contenido identificado como sensible o sugerente.

Para habilitar la función, los padres pueden activar el filtro “Restringir contenido confidencial” en el Centro familiar de Snapchat. Una vez habilitado, los adolescentes ya no verán el contenido bloqueado en Stories y Spotlight, la sección de videos cortos de la plataforma. El texto debajo del interruptor especifica que activar este filtro no afectará el contenido compartido en Chat, Snaps y Búsqueda.

Acompañando este cambio, Snapchat también está publicando su pautas de contenido por primera vez para brindarles a los creadores de Stories y Spotlight más información sobre qué tipo de publicaciones se pueden recomendar en su plataforma y qué contenido ahora se considerará “sensible” según las pautas de la comunidad. La plataforma dijo que había compartido estas pautas con un conjunto de creadores bajo el programa Snap Stars y con sus socios de medios, pero ahora la compañía las pone a disposición de todos a través de un página en su sitio web.

La compañía ya prohíbe contenido como contenido de odio, terrorismo, extremismo violento, actividad ilegal, información dañina falsa o engañosa, acoso e intimidación, amenazas de violencia y más en su plataforma. Pero ahora, las pautas especifican qué contenido en varias categorías se considerará “sensible”. Este es contenido que puede ser elegible para recomendación pero puede ser bloqueado para usuarios adolescentes bajo estos nuevos controles, o para otros en la aplicación según su edad, ubicación o preferencias personales.

Por ejemplo, en la categoría de contenido sexual, Snap explica que el contenido se considerará “sensible” si incluye “toda la desnudez, así como todas las representaciones de actividad sexual, incluso si está vestido, e incluso si las imágenes no son reales” (tales como en el caso de las imágenes de IA, así como “lenguaje explícito” que describe actos sexuales y otras cosas relacionadas con el sexo, como trabajo sexual, tabúes, genitales, juguetes sexuales, “imágenes abiertamente sugerentes”, “contenido sexual insensible o degradante” y “medios manipulados”.

También aborda lo que se considerará sensible en otras categorías, incluido el acoso, el contenido perturbador o violento, la información falsa o engañosa, las actividades ilegales o reguladas, el contenido de odio, el terrorismo y el extremismo violento, y el contenido comercial (solicitud abierta de compra de productos no pertenecientes a terceros). creadores aprobados). Esto incluye una variedad de contenido, como representaciones de drogas, cebo de compromiso (“espérelo”), autolesiones, modificaciones corporales, gore, violencia en las noticias, imágenes gráficas de enfermedades físicas humanas, sufrimiento animal, cobertura sensacionalista de distribución incidentes, como crímenes violentos o sexuales, comportamiento peligroso y mucho, mucho más.

Los cambios se producen mucho después de una audiencia en el Congreso de 2021 en la que se interrogó a Snap por mostrar contenido relacionado con adultos en el feed Discover de la aplicación, como invitaciones a videojuegos sexualizados y artículos sobre ir a bares o pornografía. Como señalaron acertadamente los senadores, la aplicación de Snap figuraba como 12+ en la App Store, pero el contenido que estaba compartiendo estaba claramente destinado a una audiencia más adulta. Incluso los videojuegos que publicitaba, en algunos casos, se calificaron como dirigidos a usuarios mayores.

“Esperamos que estas nuevas herramientas y pautas ayuden a los padres, cuidadores, adultos de confianza y adolescentes no solo a personalizar su experiencia de Snapchat, sino que también les permitan tener conversaciones productivas sobre sus experiencias en línea”, dijo la compañía de redes sociales en una entrada de blog.

Sin embargo, si bien la nueva función puede contribuir en gran medida a limitar el contenido confidencial de los espectadores adolescentes en algunas áreas, no aborda una de las áreas que el Congreso había llamado: el feed Discover. Aquí, Snap presenta contenido de editores, incluidos aquellos que publican contenido que podría considerarse “sensible” según sus pautas. Es francamente un montón de clickbait. Y, sin embargo, esta área no se está abordando con los nuevos controles.

Además, la función requiere que los padres tomen medidas activando un interruptor del que probablemente no sepan nada.

En resumen, este es otro ejemplo de cómo la falta de legislación y regulaciones con respecto a las empresas de redes sociales ha llevado a la autocontrol, que no va lo suficientemente lejos para proteger a los usuarios jóvenes de cualquier daño.

Además de los controles de contenido, Snap dijo que está trabajando para agregar herramientas para dar a los padres más “visibilidad y control” sobre el uso que hacen los adolescentes del nuevo chatbot My AI.

El mes pasado, la red social lanzó este chatbot impulsado por la tecnología GPT de Open AI bajo la suscripción Snapchat+. Por cierto, el anuncio de Snapchat se produce después de que el chatbot se volviera deshonesto mientras chateaba con un columnista del Washington Post que finge ser un adolescente. El bot supuestamente le aconsejó al columnista que ocultara el olor a marihuana y alcohol mientras celebraba una fiesta de cumpleaños. Por separado, los investigadores de el Centro de Tecnología Humana descubrió que el bot le dio consejos sexuales a un usuario que finge tener 13 años.

Las herramientas adicionales dirigidas al chatbot aún no se han implementado.




Source link