A medida que la IA ha pasado de ser una colección de proyectos de investigación a incluir un puñado de modelos titánicos que impulsan la industria como GPT-3, existe la necesidad de que el sector evolucione, o eso piensa Dario Amodei, ex vicepresidente de investigación de OpenAI, quien se lanzó por su cuenta para crear una nueva empresa hace unos meses. Antrópico, como se llama, se fundó con su hermana Daniela y su objetivo es crear “sistemas de IA a gran escala que sean orientables, interpretables y robustos”.
El desafío al que se enfrentan los hermanos Amodei es simplemente que estos modelos de IA, aunque increíblemente poderosos, no se comprenden bien. GPT-3, en el que trabajaron, es un sistema de lenguaje asombrosamente versátil que puede producir texto extremadamente convincente en prácticamente cualquier estilo y sobre cualquier tema.
Pero digamos que hizo que generara coplas que riman con Shakespeare y Pope como ejemplos. ¿Cómo lo hace? ¿Qué es “pensar”? ¿Qué mando ajustarías, qué dial girarías, para hacerlo más melancólico, menos romántico o limitar su dicción y léxico de formas específicas? Ciertamente hay parámetros para cambiar aquí y allá, pero realmente nadie sabe exactamente cómo se está haciendo esta salchicha de lenguaje extremadamente convincente.
Una cosa es no saber cuándo un modelo de inteligencia artificial está generando poesía, y otra muy distinta cuando el modelo está observando una tienda por departamentos en busca de un comportamiento sospechoso o buscando precedentes legales para un juez a punto de dictar una sentencia. Hoy la regla general es: cuanto más poderoso es el sistema, más difícil es explicar sus acciones. Esa no es exactamente una buena tendencia.
“Los grandes sistemas generales de hoy en día pueden tener beneficios significativos, pero también pueden ser impredecibles, poco confiables y opacos: nuestro objetivo es avanzar en estos temas”, se lee en la autodescripción de la empresa. “Por ahora, nos enfocamos principalmente en la investigación hacia estos objetivos; en el futuro, prevemos muchas oportunidades para que nuestro trabajo cree valor comercialmente y para el beneficio público “.
El objetivo parece ser integrar los principios de seguridad en el sistema de prioridades existente de desarrollo de IA que generalmente favorece la eficiencia y la potencia. Como cualquier otra industria, es más fácil y efectivo incorporar algo desde el principio que atornillarlo al final. Intentar hacer que algunos de los modelos más grandes que existen puedan ser separados y comprendidos puede ser más trabajo que construirlos en primer lugar. Anthropic parece estar comenzando de nuevo.
“El objetivo de Anthropic es lograr los avances fundamentales en la investigación que nos permitirán construir sistemas de IA más capaces, generales y confiables, y luego implementar estos sistemas de una manera que beneficie a las personas”, dijo Dario Amodei, CEO de la nueva empresa, en un breve resumen. post anunciando la compañía y sus $ 124 millones en financiamiento.
Esa financiación, por cierto, está tan repleta de estrellas como cabría esperar. Fue dirigido por el cofundador de Skype, Jaan Tallinn, e incluyó a James McClave, Dustin Moskovitz, Eric Schmidt y el Centro de Investigación de Riesgos Emergentes, entre otros.
La compañía es una corporación de beneficio público, y el plan por ahora, como sugiere la información limitada en el sitio, es permanecer atento a la investigación de estas preguntas fundamentales sobre cómo hacer que los modelos grandes sean más manejables e interpretables. Quizás podamos esperar más información a finales de este año, a medida que la misión y el equipo se unan y los resultados iniciales se desarrollen.
El nombre, dicho sea de paso, es adyacente a antropocéntrico y se refiere a la relevancia para la experiencia o la existencia humana. Quizás se derive del “principio antrópico”, la noción de que la vida inteligente es posible en el universo porque … bueno, estamos aquí. Si la inteligencia es inevitable en las condiciones adecuadas, la empresa solo tiene que crear esas condiciones.