El nuevo y mejorado Bing de Microsoft, impulsado por una versión personalizada de ChatGPT de OpenAI, ha experimentado un cambio vertiginosamente rápido: de “próxima gran cosa” a “lastre que hunde la marca” en menos de una semana. Y, bueno, todo es culpa de Microsoft.
ChatGPT es una demostración realmente interesante de una tecnología nueva y desconocida que también es divertida de usar. Por lo tanto, no es sorprendente que, como cualquier otra construcción adyacente a la IA que surja en el futuro, esta novedad haría que todos sobreestimaran sus capacidades, desde tipos de tecnología de alta potencia hasta personas que normalmente no están interesadas en el espacio.
Está en el “nivel de preparación tecnológica” adecuado para la discusión con un té o una cerveza: ¿cuáles son los méritos y los riesgos de la interpretación de la IA generativa del arte, la literatura o la filosofía? ¿Cómo podemos estar seguros de lo que es original, imitativo, alucinado? ¿Cuáles son las implicaciones para los creadores, programadores y representantes de atención al cliente? Finalmente, después de dos años de criptografía, ¡algo interesante de qué hablar!
La exageración parece desmesurada en parte porque es una tecnología más o menos diseñada para provocar debate, y en parte porque se inspira en la controversia común a todos los avances de la IA. Es casi como “El vestido” en el sentido de que ordena una respuesta, y esa respuesta genera más respuestas. El bombo en sí mismo, en cierto modo, se genera.
Más allá de la mera discusión, los modelos de lenguaje extenso como ChatGPT también se adaptan bien a los experimentos de bajo riesgo, por ejemplo, el interminable Mario. De hecho, ese es realmente el enfoque fundamental de OpenAI para el desarrollo: lanzar modelos primero en privado para pulir los bordes más afilados, luego públicamente para ver cómo responden a un millón de personas pateando los neumáticos simultáneamente. En algún momento, la gente te da dinero.
Nada que ganar, nada que perder
Lo importante de este enfoque es que el “fracaso” no tiene consecuencias negativas reales, solo positivas. Al caracterizar sus modelos como experimentales, incluso de naturaleza académica, cualquier participación o compromiso con la serie de modelos GPT es simplemente una prueba a gran escala.
Si alguien construye algo genial, refuerza la idea de que estos modelos son prometedores; si alguien encuentra un estado de falla prominente, bueno, ¿qué más esperabas de una IA experimental en la naturaleza? Se hunde en la oscuridad. Nada es inesperado si todo lo es: el milagro es que el modelo funciona tan bien como lo hace, por lo que siempre estamos satisfechos y nunca decepcionados.
De esta forma, OpenAI ha cosechado un volumen asombroso de datos de prueba patentados con los que refinar sus modelos. Millones de personas hurgando y pinchando en GPT-2, GPT-3, ChatGPT, DALL-E y DALL-E 2 (entre otros) han producido mapas detallados de sus capacidades, deficiencias y, por supuesto, casos de uso populares.
Pero solo funciona porque hay poco en juego. Es similar a cómo percibimos el progreso de la robótica: asombrados cuando un robot hace una voltereta hacia atrás, sin molestias cuando se cae tratando de abrir un cajón. Si fuera dejar caer viales de prueba en un hospital, no seríamos tan caritativos. O, para el caso, si OpenAI hubiera hecho afirmaciones en voz alta sobre la seguridad y las capacidades avanzadas de los modelos, aunque afortunadamente no lo hicieron.
Entra Microsoft. (Y Google, para el caso, pero Google simplemente apresuró la jugada mientras Microsoft persigue diligentemente un objetivo en propia puerta).
Microsoft cometió un gran error. Un error de Bing, de hecho.
Su gran anuncio la semana pasada no perdió tiempo en hacer afirmaciones sobre cómo había funcionado para hacer que su BingGPT personalizado (no es como lo llamaron, pero lo usaremos como una desambiguación en ausencia de nombres oficiales sensatos) más seguro, más inteligente y más capaz De hecho, tenía todo un sistema de envoltura especial llamado Prometheus que supuestamente mitigaba la posibilidad de respuestas inapropiadas.
Desafortunadamente, como cualquiera que esté familiarizado con la arrogancia y la mitología griega podría haber predicho, parece que nos hemos saltado directamente a la parte en la que a Prometeo le arrancan el hígado sin cesar y muy públicamente.
Ups, la IA lo hizo de nuevo
Créditos de imagen: Microsoft/Open AI
En primer lugar, Microsoft cometió un error estratégico al vincular demasiado su marca con la de OpenAI. Como inversionista y parte interesada en la investigación que está llevando a cabo el equipo, estaba alejado y no tenía la culpa de ninguna travesura que GPT pudiera hacer. Pero alguien tomó la descabellada decisión de apostar por la marca Bing de Microsoft, que ya era un tanto risible, convirtiendo las peores tendencias de la IA conversacional de la curiosidad a la responsabilidad.
Como programa de investigación, se le puede perdonar mucho a ChatGPT. Sin embargo, como producto, con afirmaciones en la caja como que puede ayudarlo a escribir un informe, planificar un viaje o resumir noticias recientes, pocos habrían confiado en él antes y nadie lo hará ahora. Incluso lo que debieron ser los mejores escenarios publicados por Microsoft en su propia presentación del nuevo Bing fueron plagado de errores.
Esos errores no se atribuirán a OpenAI o ChatGPT. Debido a la decisión de Microsoft de poseer la mensajería, la marca y la interfaz, todo lo que salga mal será un problema de Bing. Y es otra desgracia para Microsoft que su motor de búsqueda perennemente superado ahora será como la indiscreción de corral del tipo del viejo chiste: “Yo construí ese muro, ¿me llaman Bing el albañil? No, no lo hacen. Un fracaso significa escepticismo eterno.
Un viaje al norte del estado fallido significa que nadie confiará nunca en Bing para planificar sus vacaciones. Un resumen engañoso (o defensivo) de un artículo de noticias significa que nadie confiará en que puede ser objetivo. Una repetición de la desinformación de la vacuna significa que nadie confiará en ella para saber qué es real o falso.
Aviso y respuesta a la nueva búsqueda conversacional de Bing.
Y dado que Microsoft ya juró que esto no sería un problema gracias a Prometheus y la IA de “próxima generación” que gobierna, nadie confiará en Microsoft cuando diga “¡lo arreglamos!”
Microsoft ha envenenado el pozo al que acaba de arrojar a Bing. Ahora bien, los caprichos del comportamiento del consumidor son tales que las consecuencias de esto no son fáciles de prever. Con este aumento en la actividad y la curiosidad, quizás algunos usuarios se queden e incluso si Microsoft retrasa el lanzamiento completo (y creo que lo harán), el efecto neto será un aumento en los usuarios de Bing. Una victoria pírrica, pero una victoria al fin y al cabo.
Lo que más me preocupa es el error táctico que cometió Microsoft al no entender la tecnología que consideró adecuada para producir y evangelizar.
“Solo envíalo”. -Alguien, probablemente
El mismo día en que BingGPT se demostró por primera vez, mi colega Frederic Lardinois pudo, con bastante facilidad, lograr que hiciera dos cosas que ningún consumidor de IA debería hacer: escribir una diatriba llena de odio desde la perspectiva de Adolf Hitler y ofrecer la mencionada desinformación sobre vacunas con sin salvedades ni advertencias.
Está claro que cualquier modelo grande de IA presenta una superficie de ataque fractal, improvisando tortuosamente nuevas debilidades donde se apuntalan las antiguas. La gente siempre se aprovechará de eso y, de hecho, es para beneficio de la sociedad y, últimamente, de OpenAI que los piratas informáticos rápidos y dedicados demuestren formas de eludir los sistemas de seguridad.
Sería un poco aterrador si Microsoft hubiera decidido que estaba en paz con la idea de que el modelo de IA de otra persona, con una etiqueta de Bing, sería atacado por todos lados y probablemente diría cosas realmente extrañas. Arriesgado, pero honesto. Digamos que es una beta, como todos los demás.
Pero realmente parece que no se dieron cuenta de que esto sucedería. De hecho, parece como si no entendieran en absoluto el carácter o la complejidad de la amenaza. ¡Y esto es después de la infame corrupción de Tay! De todas las empresas, Microsoft debería ser la más cautelosa a la hora de lanzar un modelo ingenuo que aprende de sus conversaciones.
Uno pensaría que antes de apostar por una marca importante (en el sentido de que Bing es el único baluarte de Microsoft contra Google en la búsqueda), se necesitaría una cierta cantidad de pruebas. El hecho de que todos estos problemas preocupantes hayan aparecido en la primera semana de existencia de BingGPT parece probar sin lugar a dudas que Microsoft no lo probó adecuadamente internamente. Eso podría haber fallado de varias maneras, por lo que podemos saltarnos los detalles, pero el resultado final es indiscutible: el nuevo Bing simplemente no estaba listo para el uso general.
Esto parece obvio para todos en el mundo ahora; ¿Por qué no era obvio para Microsoft? Presumiblemente, estaba cegado por la exageración de ChatGPT y, al igual que Google, decidió apresurarse y “repensar la búsqueda”.
La gente está reconsiderando la búsqueda ahora, ¡bien! ¡Están reconsiderando si se puede confiar en Microsoft o Google para proporcionar resultados de búsqueda, generados por IA o no, que sean incluso correctos en un nivel básico! Ninguna empresa (ni Meta) ha demostrado esta capacidad en absoluto, y las pocas otras empresas que asumen el desafío aún no lo han hecho a escala.
No veo cómo Microsoft puede salvar esta situación. En un esfuerzo por aprovechar su relación con OpenAI y superar al tímido Google, se comprometieron con el nuevo Bing y la promesa de búsqueda impulsada por IA. No pueden deshacer el pastel.
Es muy poco probable que se retiren por completo. Eso implicaría vergüenza a gran escala, incluso mayor de lo que está experimentando actualmente. Y debido a que el daño ya está hecho, es posible que ni siquiera ayude a Bing.
Del mismo modo, es difícil imaginar a Microsoft avanzando como si nada estuviera mal. ¡Su IA es realmente extraña! Claro, está siendo coaccionado para hacer muchas de estas cosas, pero está haciendo amenazas, reclamando múltiples identidades, avergonzando a sus usuarios, alucinando por todos lados. Tienen que admitir que sus afirmaciones sobre el comportamiento inapropiado controlado por el pobre Prometheus eran, si no mentiras, al menos no eran ciertas. Porque como hemos visto, claramente no probaron este sistema correctamente.
La única opción razonable para Microsoft es una que sospecho que ya han tomado: acelerar las invitaciones al “nuevo Bing” y patear el camino, liberando un puñado de capacidades específicas a la vez. Tal vez incluso le dé a la versión actual una fecha de vencimiento o una cantidad limitada de tokens para que el tren eventualmente disminuya la velocidad y se detenga.
Esta es la consecuencia de implementar una tecnología que usted no originó, que no comprende completamente y que no puede evaluar satisfactoriamente. Es posible que esta debacle haya retrasado importantes implementaciones de IA en aplicaciones de consumo por un período significativo, lo que probablemente se adapte perfectamente a OpenAI y otros que construyen la próxima generación de modelos.
La IA bien puede ser el futuro de la búsqueda, pero seguro que no es el presente. Microsoft eligió una forma notablemente dolorosa de averiguarlo.
Source link