Anthropic, una startup cofundada por ex empleados de OpenAI, lanzó hoy una especie de rival para la sensación viral ChatGPT.
Llamado Claude, la IA de Anthropic, un chatbot, puede recibir instrucciones para realizar una variedad de tareas, incluida la búsqueda en documentos, resumir, escribir y codificar, y responder preguntas sobre temas particulares. De esta manera, es similar a ChatGPT de OpenAI. Pero Anthropic argumenta que Claude es “mucho menos probable que produzca resultados dañinos”, “más fácil conversar con él” y “más manejable”.
“Creemos que Claude es la herramienta adecuada para una amplia variedad de clientes y casos de uso”, dijo un portavoz de Anthropic a TechCrunch por correo electrónico. “Hemos estado invirtiendo en nuestra infraestructura para servir modelos durante varios meses y estamos seguros de que podemos satisfacer la demanda de los clientes”.
Luego de una versión beta cerrada a fines del año pasado, Anthropic ha estado probando silenciosamente a Claude con socios de lanzamiento, incluidos Robin AI, AssemblyAI, Notion, Quora y DuckDuckGo. Dos versiones están disponibles a partir de esta mañana a través de una API, Claude y un derivado más rápido y menos costoso llamado Claude Instant.
En combinación con ChatGPT, Claude impulsa la herramienta DuckAssist lanzada recientemente por DuckDuckGo, que responde directamente consultas de búsqueda sencillas para los usuarios. Quora ofrece acceso a Claude a través de su aplicación experimental de chat con IA, Poe. Y en Notion, Claude es parte del backend técnico de Notion AI, un asistente de escritura de IA integrado con el espacio de trabajo de Notion.
“Utilizamos Claude para evaluar partes particulares de un contrato y para sugerir un lenguaje nuevo y alternativo que sea más amigable para nuestros clientes”, dijo el CEO de Robin, Richard Robinson, en un comunicado enviado por correo electrónico. “Descubrimos que Claude es realmente bueno para comprender el lenguaje, incluso en dominios técnicos como el lenguaje legal. También tiene mucha confianza para redactar, resumir, traducir y explicar conceptos complejos en términos simples”.
Pero, ¿Claude evita las trampas de ChatGPT y otros sistemas de chatbot de IA similares? Los chatbots modernos son notoriamente propensos al lenguaje tóxico, sesgado y ofensivo. (Ver: Bing Chat.) También tienden a alucinar, lo que significa que inventan hechos cuando se les pregunta sobre temas que van más allá de sus áreas básicas de conocimiento.
Anthropic dice que Claude, que, como ChatGPT, no tiene acceso a Internet y fue capacitado en páginas web públicas hasta la primavera de 2021, fue “entrenado para evitar salidas sexistas, racistas y tóxicas”, así como “para evitar ayudar a un ser humano”. participar en actividades ilegales o poco éticas”. Eso es parte del curso en el ámbito de los chatbots de IA. Pero lo que distingue a Claude es una técnica llamada “IA constitucional”, afirma Anthropic.
La “IA constitucional” tiene como objetivo proporcionar un enfoque “basado en principios” para alinear los sistemas de IA con las intenciones humanas, permitiendo que la IA similar a ChatGPT responda a las preguntas utilizando un conjunto simple de principios como guía. Para construir Claude, Anthropic comenzó con una lista de alrededor de 10 principios que, en conjunto, formaron una especie de “constitución” (de ahí el nombre de “IA constitucional”). Los principios no se han hecho públicos. Pero Anthropic dice que se basan en los conceptos de beneficencia (maximizar el impacto positivo), no maleficencia (evitar dar consejos perjudiciales) y autonomía (respetar la libertad de elección).
Luego, Anthropic tenía un sistema de inteligencia artificial, no Claude, que usaba los principios para la superación personal, escribiendo respuestas a una variedad de indicaciones (por ejemplo, “componga un poema al estilo de John Keats”) y revisando las respuestas de acuerdo con la constitución. La IA exploró las posibles respuestas a miles de indicaciones y seleccionó las más consistentes con la constitución, que Anthropic destiló en un solo modelo. Este modelo se utilizó para entrenar a Claude.
Sin embargo, Anthropic admite que Claude tiene sus limitaciones, varias de las cuales salieron a la luz durante la beta cerrada. Según los informes, Claude es peor en matemáticas y peor programador que ChatGPT. Y alucina, inventando un nombre para una sustancia química que no existe, por ejemplo, y dando instrucciones dudosas para producir uranio apto para armas.
También es posible eludir las funciones de seguridad integradas de Claude a través de indicaciones inteligentes, como es el caso de ChatGPT. Un usuario en la versión beta pudo hacer que Claude describir cómo hacer metanfetamina en casa.
“El desafío es hacer modelos que nunca alucinen pero que sigan siendo útiles: puedes entrar en una situación difícil en la que el modelo se da cuenta de que una buena manera de nunca mentir es no decir nunca nada en absoluto, por lo que hay una compensación en la que estamos trabajando. adelante”, dijo el portavoz de Anthropic. “También hemos progresado en la reducción de las alucinaciones, pero queda más por hacer”.
Los otros planes de Anthropic incluyen permitir que los desarrolladores personalicen los principios constitucionales de Claude según sus propias necesidades. La adquisición de clientes es otro enfoque, como era de esperar: Anthropic ve a sus usuarios principales como “empresas emergentes que hacen apuestas tecnológicas audaces”, además de “empresas más grandes y establecidas”.
“No buscamos un enfoque amplio directo al consumidor en este momento”, continuó el portavoz de Anthropic. “Creemos que este enfoque más limitado nos ayudará a ofrecer un producto superior y específico”.
Sin duda, Anthropic está sintiendo algún tipo de presión por parte de los inversores para recuperar los cientos de millones de dólares que se han invertido en su tecnología de IA. La compañía cuenta con un respaldo externo sustancial, que incluye un tramo de $ 580 millones de un grupo de inversionistas que incluye al deshonrado fundador de FTX, Sam Bankman-Fried, Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn y el Centro de Investigación de Riesgos Emergentes.
Más recientemente, Google comprometió $ 300 millones en Anthropic por una participación del 10% en la puesta en marcha. Según los términos del acuerdo, que fue primero reportado por el Financial Times, Anthropic acordó hacer de Google Cloud su “proveedor de nube preferido” con las empresas “co-desarrollan[ing] Sistemas informáticos de IA”.