Stability AI lanza modelos de lenguaje similares a ChatGPT

Stability AI lanza modelos de lenguaje similares a ChatGPT

Stability AI, la puesta en marcha detrás de la herramienta de arte generativo de IA Stable Diffusion, hoy abrió un conjunto de modelos de IA generadores de texto destinados a competir con sistemas como GPT-4 de OpenAI.

Llamado StableLM y disponible en “alfa” en GitHub y Abrazando espaciosuna plataforma para alojar códigos y modelos de IA, Stability AI dice que los modelos pueden generar tanto código como texto y “demostrar cómo los modelos pequeños y eficientes pueden ofrecer un alto rendimiento con la capacitación adecuada”.

“Los modelos de lenguaje formarán la columna vertebral de nuestra economía digital, y queremos que todos tengan una voz en su diseño”, escribió el equipo de Stability AI en un entrada en el blog en el sitio de la empresa.

Los modelos se entrenaron en un conjunto de datos llamado The Pile, una combinación de muestras de texto extraídas de Internet de sitios web como PubMed, StackExchange y Wikipedia. Pero Stability AI afirma que creó un conjunto de entrenamiento personalizado que amplía el tamaño de la pila estándar en 3 veces.

Créditos de imagen: Estabilidad IA

Stability AI no dijo en la publicación del blog si los modelos StableLM sufren las mismas limitaciones que otros, a saber, una tendencia a generar respuestas tóxicas a ciertas indicaciones y alucinar (es decir, inventar) hechos. Pero dado que The Pile contiene lenguaje profano, lascivo y bastante abrasivo, no sería sorprendente que ese fuera el caso.

Este reportero intentó probar los modelos en Hugging Face, que proporciona una interfaz para ejecutarlos sin tener que configurar el código desde cero. Desafortunadamente, recibí un error de “capacidad máxima” cada vez, lo que podría tener que ver con el tamaño de los modelos o su popularidad.

“Como es típico para cualquier modelo de lenguaje grande preentrenado sin ajuste adicional y aprendizaje de refuerzo, las respuestas que obtiene un usuario pueden ser de calidad variable y pueden incluir potencialmente lenguaje y puntos de vista ofensivos”, escribió Stability AI en el repositorio de StableLM. “Se espera que esto mejore con escala, mejores datos, comentarios de la comunidad y optimización”.

Aún así, los modelos StableLM parecen bastante capaces en términos de lo que pueden lograr, particularmente las versiones mejoradas incluidas en la versión alfa. Optimizados con una técnica desarrollada por Stanford llamada Alpaca en conjuntos de datos de código abierto, incluidos los de la startup de inteligencia artificial Anthropic, los modelos StableLM optimizados se comportan como ChatGPT, respondiendo a instrucciones (a veces con humor) como “escribir una carta de presentación para un desarrollador de software”. o “escribir letras para una canción épica de batalla de rap”.

La cantidad de modelos de generación de texto de código abierto crece prácticamente día a día, ya que las empresas grandes y pequeñas compiten por la visibilidad en el espacio generativo de IA cada vez más lucrativo. Durante el año pasado, Meta, Nvidia y grupos independientes como el proyecto BigScience respaldado por Hugging Space han lanzado modelos aproximadamente a la par con modelos “privados”, disponibles a través de una API, como GPT-4 y Claude de Anthropic.

Algunos investigadores han criticado el lanzamiento de modelos de código abierto similares a StableLM en el pasado, argumentando que podrían usarse para fines desagradables, como crear correos electrónicos de phishing o ayudar a los ataques de malware. Pero Stability AI argumenta que el código abierto es, de hecho, el enfoque correcto.

“Abrimos nuestros modelos para promover la transparencia y fomentar la confianza. Los investigadores pueden ‘mirar debajo del capó’ para verificar el rendimiento, trabajar en técnicas de interpretación, identificar riesgos potenciales y ayudar a desarrollar salvaguardas”, escribió Stability AI en la publicación del blog. “El acceso abierto y detallado a nuestros modelos permite a la amplia comunidad académica y de investigación desarrollar técnicas de interpretación y seguridad más allá de lo que es posible con modelos cerrados”.

Créditos de imagen: Estabilidad IA

Puede haber algo de verdad en eso. Se ha demostrado que incluso los modelos comercializados y controlados como GPT-4, que tienen filtros y equipos humanos de moderación, emiten toxicidad. Por otra parte, los modelos de código abierto requieren más esfuerzo para modificar y corregir el back-end, especialmente si los desarrolladores no se mantienen al día con las últimas actualizaciones.

En cualquier caso, Stability AI no ha rehuido la controversia, históricamente.

La empresa está en la mira de legal casos que alegan que infringió los derechos de millones de artistas al desarrollar herramientas de arte de IA utilizando imágenes con derechos de autor extraídas de la web. Y algunas comunidades en la web han aprovechado las herramientas de Stability para generar deepfakes pornográficos de celebridades y representaciones gráficas de violencia.

Además, a pesar del tono filantrópico de su publicación de blog, Stability AI también está bajo presión para monetizar sus esfuerzos en expansión, que van desde el arte y la animación hasta el audio biomédico y generativo. El CEO de Stability AI, Emad Mostaque, ha insinuado planes para una OPI, pero Semafor recientemente reportado que Stability AI, que recaudó más de $ 100 millones en capital de riesgo en octubre pasado con una valoración informada de más de $ 1 mil millones, “está quemando efectivo y ha tardado en generar ingresos”.


Source link