A medida que crece el interés en torno a los grandes modelos de IA, en particular los modelos de lenguaje grande (LLM) como GPT-3 de OpenAI, Nvidia busca sacar provecho de los nuevos servicios totalmente administrados y basados en la nube orientados a los desarrolladores de software empresarial. Hoy, en la conferencia GTC de otoño de 2022 de la compañía, Nvidia anunció NeMo LLM Service y BioNeMo LLM Service, que aparentemente facilitan la adaptación de LLM y la implementación de aplicaciones impulsadas por IA para una variedad de casos de uso que incluyen generación y resumen de texto, predicción de estructura de proteínas y más.
Las nuevas ofertas son parte de NeMo de Nvidia, un conjunto de herramientas de código abierto para IA conversacional, y están diseñadas para minimizar, o incluso eliminar, la necesidad de que los desarrolladores construyan LLM desde cero. Los LLM son frecuentemente costosos de desarrollar y capacitar, con un modelo reciente, PaLM de Google, que cuesta un estimado $ 9 millones a $ 23 millones aprovechando los recursos informáticos en la nube disponibles públicamente.
Con el servicio NeMo LLM, los desarrolladores pueden crear modelos que varían en tamaño desde 3 mil millones hasta 530 mil millones de parámetros con datos personalizados en minutos u horas, afirma Nvidia. (Los parámetros son las partes del modelo aprendidas de los datos de entrenamiento históricos; en otras palabras, las variables que informan las predicciones del modelo, como el texto que genera). Los modelos se pueden personalizar usando una técnica llamada aprendizaje rápido, que según Nvidia permite a los desarrolladores Adapte modelos entrenados con miles de millones de puntos de datos para aplicaciones particulares específicas de la industria, por ejemplo, un chatbot de servicio al cliente, utilizando unos pocos cientos de ejemplos.
Los desarrolladores pueden personalizar modelos para múltiples casos de uso en un entorno de “patio de recreo” sin código, que también ofrece características para la experimentación. Una vez listos para implementar, los modelos ajustados pueden ejecutarse en instancias en la nube, sistemas locales o a través de una API.
El servicio LLM de BioNeMo es similar al servicio LLM, pero con ajustes para los clientes de ciencias de la vida. Como parte de la plataforma Clara Discovery de Nvidia y pronto disponible en acceso temprano en Nvidia GPU Cloud, incluye dos modelos de lenguaje para aplicaciones de química y biología, así como soporte para datos de proteínas, ADN y química, dice Nvidia.
Visualización de bioprocesos predichos por modelos de IA.
BioNeMo LLM incluirá cuatro modelos de lenguaje previamente entrenados para comenzar, incluido un modelo de la división de I + D de IA de Meta, Meta AI Labs, que procesa secuencias de aminoácidos para generar representaciones que pueden usarse para predecir propiedades y funciones de proteínas. Nvidia dice que en el futuro, los investigadores que utilicen el servicio BioNeMo LLM podrán personalizar los LLM para una mayor precisión.
Investigaciones recientes han demostrado que los LLM son notablemente buenos para predecir ciertos procesos biológicos. Esto se debe a que las estructuras como las proteínas se pueden modelar como una especie de lenguaje, uno con un diccionario (aminoácidos) unidos para formar una oración (proteína). Por ejemplo, la división de I+D de Salesforce creó hace varios años un modelo LLM llamado progen que pueden generar secuencias de proteínas estructural y funcionalmente viables.
Tanto el servicio LLM de BioNeMo como el servicio LLM incluyen la opción de usar modelos personalizados y listos para usar a través de una API en la nube. El uso de los servicios también otorga a los clientes acceso al marco NeMo Megatron, ahora en versión beta abierta, que permite a los desarrolladores crear una gama de modelos LLM multilingües, incluidos modelos de lenguaje tipo GPT-3.
Nvidia dice que las marcas de automoción, informática, educación, salud y telecomunicaciones están utilizando NeMo Megatron para lanzar servicios impulsados por IA en chino, inglés, coreano y sueco.
Se espera que los servicios NeMo LLM y BioNeMo y las API en la nube estén disponibles en acceso anticipado a partir del próximo mes. En cuanto al marco NeMo Megatron, los desarrolladores pueden probarlo a través de la plataforma de pilotaje LaunchPad de Nvidia sin cargo.
Source link