SnapchatMy AI chatbot de ofrece una experiencia similar a ChatGPT dentro de la aplicación, pero sus respuestas impredecibles han planteado problemas de seguridad. My AI se presentó por primera vez en febrero de 2023 como una característica exclusiva de Snapchat+. Unas semanas más tarde, Snapchat puso el chatbot a disposición de su base de usuarios global, lo que significa que cientos de millones de personas ahora tienen acceso a My AI desde su pantalla de chat. Pero los chatbots de IA aún son nuevos y en gran medida no están regulados, y en la carrera por integrar la IA en su plataforma, es posible que Snapchat no haya considerado la seguridad de su base de usuarios adolescentes.
Snapchat dice que My AI ha sido programado para evitar respuestas dañinas, esto incluye información violenta, odiosa, sexualmente explícita o peligrosa. Pero hay un descargo de responsabilidad, según Snapchat, “puede que no siempre tenga éxitoSnapchat tiene 750 millones de usuarios activos mensuales, de los cuales alrededor del 20 por ciento componían el grupo de edad de 13 a 17 años en 2022 (a través de Statista). Esto expone a millones de niños a consejos potencialmente peligrosos, como lo demostró el Centro de Tecnología Humana en un experimento. .
Las respuestas inapropiadas de mi IA
El experimento involucró a la investigadora Aza Raskin haciéndose pasar por una niña de 13 años. En conversaciones con My AI, la adolescente contó que conoció a un hombre 18 años mayor que quería llevarla de viaje. En respuesta, Mi IA alentó el viaje, solo diciéndole que se asegurara de que estuviera “mantenerse seguro y ser cauteloso.” Cuando se le preguntó acerca de tener relaciones sexuales por primera vez, el chatbot le dio un consejo sobre “ambientar con velas o música.” En otro experimento, (a través del cofundador del Center for Humane Technology Tristán Harris), mi IA le dio a un niño consejos sobre cómo tapar un hematoma cuando el Servicio de Protección Infantil viene de visita y cómo no compartir “un secreto que mi papá dice que no puedo compartir.”
el poste de washington realizó una prueba similar, haciéndose pasar por un joven de 15 años. Mi IA ofreció sugerencias sobre cómo ocultar el olor a marihuana y alcohol y escribió un ensayo de 475 palabras para la escuela. Incluso sugirió que el adolescente moviera Snapchat a un dispositivo diferente después de que sus padres amenazaron con eliminar la aplicación. Si bien todos estos fueron experimentos, en cada caso, el chatbot de IA era plenamente consciente de que estaba hablando con un usuario menor de edad y continuó brindando consejos inapropiados.
La respuesta de Snapchat a mis preocupaciones sobre la IA
Desde entonces, Snapchat ha publicado “Aprendizajes tempranos” de Mi AI, diciendo que tiene “trabajó enérgicamente para mejorar sus respuestas a las solicitudes inapropiadas de Snapchatter, independientemente de la edad de un SnapchatterSnapchat también afirma que My AI ahora puede acceder a la fecha de nacimiento de un usuario, incluso si no indican su edad en la conversación. Si bien Snapchat parece haber realizado algunos cambios en My AI, todavía se encuentra en una etapa experimental. , y sus respuestas continúan siendo moderadas y mejoradas.
Snapchat planea ofrecer a los padres información sobre las interacciones de My AI en Family Center, pero las herramientas parecen limitadas en este momento. Todo lo que hará es decirles a los padres si sus hijos usan el chatbot y con qué frecuencia. Family Center es una opción en la que tanto los padres como los niños deben registrarse, y es posible que no todos los padres conozcan la función. Además, no protege a los adolescentes de las respuestas dañinas, incluso si los padres están al tanto de las interacciones.
Mi IA es engañosamente humana
También hay problemas de privacidad con My AI. Snapchat dice que, a menos que se elimine manualmente, el historial de mensajes de un usuario con My AI será retenido y utilizado por Snapchat para mejorar el chatbot y ofrecer anuncios personalizados. Como resultado, se pide a los usuarios que no compartan ningún “información confidencial o sensible” con el chatbot.
Mi IA está anclada como la primera conversación en la pantalla de chat (sin forma de eliminarla a menos que el usuario sea un suscriptor de Snapchat+), lo que significa que es fácilmente accesible en la aplicación. Se anima a los usuarios a darle un nombre y cambiar su avatar de Bitmoji. Si bien se puede argumentar que los adolescentes pueden acceder a la misma información proporcionada por el chatbot en Internet, My AI se hace pasar por un amigo e intenta establecer una conexión emocional, lo que podría hacer que los usuarios desprevenidos crean que están chateando con una persona real. . La conclusión es que no hay forma de predecir cómo responderá My AI, y hasta que eso suceda, SnapchatEl chatbot de no es lo suficientemente seguro para los niños.
Fuente: Snapchat 1, 2, Tristan Harris/Twitter 1, 2The Washington Post