Si no fuera por el colapso del Silicon Valley Bank (SVB) de la semana pasada, casi todas las conversaciones en tecnología parecen estar centradas en la IA y los chatbots. En los últimos días, OpenAI respaldado por Microsoft lanzó un nuevo modelo de lenguaje llamado GPT-4. Su competidor Anthropic lanzó el chatbot Claude. Google dijo que está integrando AI en sus herramientas Workspace como Gmail y Docs. Microsoft Bing ha llamado la atención sobre sí mismo con una búsqueda habilitada para chatbot. ¿El único nombre que falta en la acción? Manzana.
El mes pasado, la empresa con sede en Cupertino realizó un evento interno que se centró en la IA y los modelos de lenguaje extenso. Según un informe de los New York Timesmuchos equipos, incluidas personas que trabajan en Siri, están probando “conceptos de generación de lenguaje” con regularidad.
La gente se ha quejado de que Siri no entiende las consultas (incluidas las mías) durante mucho tiempo. Siri (y otros asistentes como Alexa y Google Assistant) no han logrado comprender los diferentes acentos y fonéticas de las personas que viven en diferentes partes del mundo, incluso si hablan el mismo idioma.
La nueva fama de ChatGPT y la búsqueda basada en texto facilita que las personas interactúen con diferentes modelos de IA. Pero actualmente, la única forma de chatear con el asistente de inteligencia artificial de Apple, Siri, es habilitar una función en la configuración de accesibilidad.
En una entrevista con NYT, el exingeniero de Apple John Burke, que trabajó en Siri, dijo que el Asistente de Apple ha tenido una evolución lenta debido al “código torpe”, que dificultaba incluso las actualizaciones de funciones básicas. También mencionó que Siri tenía una gran base de datos con un montón de palabras. Entonces, cuando los ingenieros necesitaban agregar funciones o frases, la base de datos tenía que ser reconstruida, un proceso que supuestamente tomó hasta seis semanas.
El informe del NYT no especificó si Apple está construyendo sus propios modelos de lenguaje o quiere adoptar un modelo existente. Pero al igual que Google y Microsoft, la empresa dirigida por Tim Cook no querría limitarse a ofrecer un chatbot impulsado por Siri. Apple se ha enorgullecido durante mucho tiempo de ser un aliado de artistas y creadores, y es de esperar que quiera aplicar los avances en los modelos de lenguaje a esas áreas.
La compañía ha estado utilizando funciones impulsadas por IA desde hace un tiempo, incluso si no son evidentes al principio. Esto incluye mejores sugerencias en el teclado, procesamiento en fotografía, desbloqueo de máscaras con Face ID, separación de objetos del fondo en todo el sistema, lavado de manos y detección de fallas en Apple Watch y, más recientemente, función de karaoke en Apple Music. Pero ninguno de ellos podría estar en la cara como chatbots.
Apple ha estado generalmente callada sobre sus esfuerzos de IA. Pero en enero, la compañía inició un programa que ofrece a los autores servicios de narración impulsados por IA para convertir sus libros en audiolibros. Esto indicó que el fabricante de iPhone ya está pensando en casos de uso para IA generativa. No me sorprendería si escuchamos más sobre los esfuerzos de la compañía en estas áreas en la Conferencia Mundial de Desarrolladores (WWDC) dentro de unos meses.
Source link