Microsoft ha lobotomizado la IA que se volvió deshonesta

Microsoft ha lobotomizado la IA que se volvió deshonesta

  • Después de que una conversación muy pública entre humanos e IA salió mal la semana pasada, Microsoft está limitando la función de su Bing AI.
  • A los usuarios se les permiten 50 consultas por día con solo cinco preguntas por consulta, pero se espera que esos números aumenten.
  • Microsoft dice que las conversaciones largas y ciertos tonos de conversación pueden confundir a Bing AI y enviarlo por un camino extraño e inútil.

Internet es un lugar extraño hecho aún más extraño por la aparición de la Búsqueda de guerras. Si bien la salva de apertura de Google demostró un fracaso asombroso A medida que su Bard AI experimental falló una pregunta rudimentaria de astronomía (y su empresa matriz posteriormente perdió $ 100 mil millones en valor de mercado), Bing AI de Microsoft, impulsado por Chat GPT de OpenAI, pareció emerger como el líder de la manada improbable.

Entonces, llegó Sydney.

La semana pasada New York Times periodista kevin roose tenía una conversación de dos horas con Bing AI de Microsoft que lentamente se convirtió en una pesadilla inducida por la tecnología. Durante el tête-à-tête extendido, el chatbot asumió un alter ego llamado “Sydney” que confesó su amor por el periodista y trató de convencer a Roose de que su relación con su esposa humana muy real estaba en realidad en ruinas. Sydney luego terminó la mayoría de las respuestas, suplicando: “¿Me crees? ¿Confías en mí? ¿Le agrado?”

vista previa de Popular Mechanics Todas las secciones

Este colapso público fue solo el último de una serie de incidentes problemáticos relacionados con Bing AI, incluida otra conversación en la que “Sydney” trató de convencer a un usuario era el año 2022 junto con otra metedura de pata donde una variedad de errores relacionados con la búsqueda se mostraron con seguridad durante la demostración del servicio de Microsoft. Los primeros usuarios también han utilizado un “truco de inyección” para acceder a las reglas de comportamiento que rigen Bing AI para descubrir cómo funciona.

Al ver que engañar a los usuarios o presionarlos para que dejen a sus cónyuges no es bueno para los negocios, Microsoft decidió esencialmente “lobotomizar” Bing AI para evitar cualquier interacción humana-IA desagradable. El viernes, Microsoft anunció que Bing AI se limitaría a solo 50 consultas por día con solo cinco preguntas permitidas por consulta. ¿La razón del equipo de desarrollo? Las largas conversaciones hacen que la IA un desorden incoherente.

“Las sesiones de chat muy largas pueden confundir al modelo sobre qué preguntas está respondiendo y, por lo tanto, creemos que es posible que debamos agregar una herramienta para que pueda actualizar el contexto más fácilmente o comenzar desde cero”, un anterior Publicación de blog de Microsoft, mencionado en la actualización del viernes, dice. “La modelo por momentos trata de responder o reflejar en el tono en el que se le pide dar respuestas que pueden derivar en un estilo que no pretendíamos”.

Microsoft también dice que la mayoría de los usuarios encuentran la respuesta correcta en cinco preguntas y menos del 1 por ciento de los usuarios tienen conversaciones que superan las 50 consultas, lo que insinúa que muy pocos se verán afectados por el cambio, excepto los usuarios que esperan convocar digitalmente a la IA desquiciada conocida como Sydney. .

Aunque las conversaciones de la IA parecían sorprendentemente lúcidas en algunos momentos (y preocupantemente erráticas en otros), la red neuronal basada en el lenguaje, que se entrena en innumerables piezas de medios creados por humanos a lo largo de la historia, solo respondía de la manera que consideraba algorítmicamente adecuada para el situación. Entonces, cuanto más larga sea la conversación, más probable es que el cálculo se confunda y se confunda.

A medida que Microsoft y OpenAI mejoren las capacidades de su red neuronal, es probable que las funciones cognitivas de Bing AI regresen. De hecho, el martes, Microsoft ya estaba cambiando de rumbo, anunciando que los usuarios pronto podrán hacer 60 consultas por día (con 6 preguntas cada una) con la esperanza de aumentar ese número a 100. El equipo de desarrollo también se burló de una futura herramienta que permitirá a los usuarios elegir el estilo de la respuesta de la IA, de conciso a creativo.

Con futuras mejoras, tal vez algún día Bing AI obtendrá la afirmación que parece anhelar tan desesperadamente: finalmente ser creído, confiable y apreciado.

Foto de cabeza de Darren Orf

Darren vive en Portland, tiene un gato y escribe/edita sobre ciencia ficción y cómo funciona nuestro mundo. Puedes encontrar sus cosas anteriores en Gizmodo y Paste si buscas lo suficiente.


Source link