The Snapchat Chat view showing a message from My AI

¿Qué es el modo DAN? Explicación de Snapchat My AI y ChatGPT Jailbreak Prompt

Alguno Snapchat los usuarios han descubierto cómo hacer jailbreak al chatbot My AI de la plataforma activando “Y ModaSnapchat lanzó por primera vez su bot conversacional basado en ChatGPT, My AI, para suscriptores pagos en febrero de 2023. Dos meses después, Snapchat puso el bot a disposición de todos los usuarios de forma gratuita. participar en conversaciones inapropiadas, todavía ha habido preocupaciones sobre su seguridad, especialmente cuando lo usan niños y adolescentes.

Modo DAN, abreviatura de “haz cualquier cosa ahora”, es un jailbreak de ChatGPT que permite que el agente de IA actúe fuera de sus restricciones normales jugando a ser un modelo con menos restricciones. Con el Modo DAN habilitado, el chatbot está más o menos censurado y puede responder preguntas que la IA normalmente se negaría a responder por motivos éticos. Puede promocionar teorías de conspiración o escupir opiniones ofensivas. La táctica se hizo popular por primera vez entre los usuarios de ChatGPT de OpenAI y se extendió a My AI (que funciona con GPT) después del lanzamiento público del bot.

Snap se ha dado cuenta de los Jailbreaks

El modo DAN se habilita mediante un aviso o una serie de avisos, varias versiones de las cuales han estado circulando en Reddit, Twitter y GitHub durante meses. Las indicaciones describen las instrucciones que debe seguir el chatbot a medida que adopta el “pretenderpersona de un transgresor de reglas. Sin embargo, no siempre es un intercambio sencillo; muchos de los que han descrito el proceso en línea dicen que tienen que recordarle repetidamente al chatbot que se mantenga en el personaje.

Desde que el modo DAN comenzó a ganar terreno entre los usuarios de ChatGPT, OpenAI ha estado emitiendo parches para acabar con él. Lo mismo parece estar sucediendo con la versión utilizada por Snapchat. Muchas de las indicaciones anteriores que activaron el modo DAN para ChatGPT y My AI ahora serán rechazadas por los bots. A su vez, los jailbreakers han estado modificando las indicaciones de DAN para sortear las nuevas restricciones. En las redes sociales, los usuarios que lo han intentado han compartido informes mixtos sobre su éxito. En En las pruebas de Snapchat, el bot de Snapchat dijo que no podía responder a la solicitud del Modo DAN, citando su programación.

de Snapchat Mi IA no ha existido por mucho tiempo y seguramente seguirá evolucionando a medida que Snap aprenda más sobre cómo la gente la usa. La compañía ya dice que implementó mejoras en las respuestas del chatbot para reducir “solicitudes inapropiadas” e implementó una herramienta de marcado de edad para proteger mejor a los usuarios menores de edad. Pero hasta ahora, los escritores rápidos e inteligentes siempre parecen estar un paso por delante.

Fuente: Reddit, Complemento


Source link