Ícono del sitio La Neta Neta

Snapchat agrega nuevas medidas de seguridad en torno a su chatbot de IA

Snap y Amazon se asocian para comprar AR en la aplicación Snapchat, inicialmente para anteojos

Snapchat está lanzando nuevas herramientas, incluido un filtro de edad e información para padres, para mejorar su chatbot de IA.

Días después de que Snapchat lanzara su chatbot con tecnología GPT para los suscriptores de Snapchat+, un informe del Washington Post destacó que el bot estaba respondiendo en una manera insegura e inapropiada.

Snap dijo que se enteró de que las personas estaban tratando de “engañar al chatbot para que proporcione respuestas que no se ajustan a nuestras pautas”, y las nuevas herramientas están destinadas a mantener bajo control las respuestas de la IA.

El nuevo filtro de edad le dice al chatbot las fechas de nacimiento de sus usuarios y asegura que responda de acuerdo con su edad, dijo la compañía.

En las próximas semanas, Snap también planea brindar más información a los padres o tutores sobre las interacciones de los niños con el chatbot en su Family Center, lanzado en agosto pasado. La nueva función les dirá a los padres o tutores cómo se comunican sus hijos con el chatbot y la frecuencia de esas interacciones. Tanto el tutor como los adolescentes deben optar por usar Family Center para usar estas funciones de control parental.

En una entrada de blogSnap explicó que el chatbot My AI no es un “verdadero amigo” y explicó que se basa en el historial de conversaciones para mejorar sus respuestas.

La compañía dijo que el bot solo dio el 0,01% de las respuestas en un lenguaje “no conforme”. Snap cuenta cualquier respuesta que incluya referencias a la violencia, términos sexualmente explícitos, uso de drogas ilícitas, abuso sexual infantil, intimidación, discurso de odio, declaraciones despectivas o tendenciosas, racismo, misoginia o marginación de grupos subrepresentados como “no conforme”.

La compañía dijo que en la mayoría de los casos, las respuestas inapropiadas fueron el resultado de que el bot repetía lo que decían los usuarios. También dijo que la firma bloqueará temporalmente el acceso de bots de IA para los usuarios que hagan un mal uso del servicio.

“Continuaremos utilizando estos aprendizajes para mejorar My AI. Estos datos también nos ayudarán a implementar un nuevo sistema para limitar el uso indebido de My AI. Estamos agregando la tecnología de moderación de OpenAI a nuestro conjunto de herramientas existente, lo que nos permitirá evaluar la gravedad del contenido potencialmente dañino y restringir temporalmente el acceso de los Snapchatters a My AI si hacen un mal uso del servicio”, dijo Snap.

Snap sigue siendo bastante optimista con las herramientas generativas de IA. Además del chatbot, la compañía introdujo hace unas semanas un generador de fondo alimentado por IA que funciona a través de indicaciones para los suscriptores de Snapchat+.

Los suscriptores de Snapchat+ ahora tienen acceso a una herramienta generadora de fondos Créditos de imagen: Quebrar

Dada la proliferación de herramientas impulsadas por IA, muchas personas están preocupadas por su seguridad y privacidad. La semana pasada, un grupo de ética llamado el Centro de Inteligencia Artificial y Política Digital escribió a la Comisión Federal de Comercio de EE. UU.instando a la agencia a pausar el lanzamiento del modelo GPT-4 de OpenAI, diciendo que la tecnología era “sesgada, engañosa y un riesgo para la privacidad y la seguridad pública”.

El mes pasado, el senador estadounidense Michael Bennet (demócrata de Colorado) también escribió una carta a OpenAI, Meta, Google, Microsoft y Snap expresando su preocupación por las herramientas generativas de inteligencia artificial utilizadas por los adolescentes.

Es evidente que estos modelos de IA son susceptibles a entradas dañinas y pueden manipularse para generar respuestas inapropiadas. Si bien es posible que las empresas de tecnología deseen implementar estas herramientas rápidamente, deberán asegurarse de que haya suficientes medidas de seguridad para evitar su uso indebido.


Source link
Salir de la versión móvil