Conozca al equipo que está desarrollando una alternativa ChatGPT de código abierto

A riesgo de decir lo obvio, los chatbots impulsados ​​por IA están de moda en este momento.

Las herramientas, que pueden escribir ensayos, correos electrónicos y más con algunas instrucciones basadas en texto, han captado la atención de aficionados a la tecnología y empresas por igual. ChatGPT de OpenAI, posiblemente el progenitor, tiene un estimado más de 100 millones de usuarios. A través de una API, marcas como Instacart, Quizlet y Snap han comenzado a incorporarla en sus respectivas plataformas, aumentando aún más las cifras de uso.

Pero para disgusto de algunos dentro de la comunidad de desarrolladores, las organizaciones que construyen estos chatbots siguen siendo parte de un club exclusivo, bien financiado y con buenos recursos. Anthropic, DeepMind y OpenAI, todos los cuales tienen mucho dinero, se encuentran entre los pocos que han logrado desarrollar sus propias tecnologías modernas de chatbot. Por el contrario, la comunidad de código abierto se ha visto obstaculizada en sus esfuerzos por crear uno.

Esto se debe en gran parte a que entrenar los modelos de IA que sustentan los chatbots requiere una enorme cantidad de poder de procesamiento, sin mencionar un gran conjunto de datos de entrenamiento que debe ser curado minuciosamente. Pero un nuevo grupo de investigadores poco afiliados que se hacen llamar Juntos intente superar esos desafíos para ser el primero en abrir un sistema similar a ChatGPT.

Juntos ya ha avanzado. La semana pasada, lanzó modelos entrenados que cualquier desarrollador puede usar para crear un chatbot impulsado por IA.

“Juntos está construyendo una plataforma accesible para modelos de base abiertos”, dijo Vipul Ved Prakash, cofundador de Juntos, a TechCrunch en una entrevista por correo electrónico. “Pensamos en lo que estamos construyendo como parte del ‘momento Linux’ de AI. Queremos permitir que los investigadores, desarrolladores y empresas utilicen y mejoren los modelos de IA de código abierto con una plataforma que reúna datos, modelos y computación”.

Prakash cofundó anteriormente Cloudmark, una startup de seguridad cibernética que Proofpoint compró por $ 110 millones en 2017. Después de que Apple adquiriera la próxima empresa de Prakash, la plataforma de búsqueda y análisis de redes sociales Topsy, en 2013, permaneció como director senior en Apple durante cinco años antes. saliendo para empezar Juntos.

Durante el fin de semana, Together lanzó su primer gran proyecto, OpenChatKit, un marco para crear chatbots basados ​​en IA tanto especializados como de propósito general. El kit, disponible en GitHub, incluye los modelos entrenados antes mencionados y un sistema de recuperación “extensible” que permite que los modelos obtengan información (por ejemplo, resultados deportivos actualizados) de varias fuentes y sitios web.

Los modelos básicos provienen de EleutherAI, un grupo de investigadores sin fines de lucro que investiga los sistemas de generación de texto. Pero se ajustaron utilizando la infraestructura informática de Together, Together Decentralized Cloud, que agrupa recursos de hardware, incluidas GPU, de voluntarios de Internet.

“Juntos desarrollaron los repositorios de origen que permiten a cualquiera replicar los resultados del modelo, ajustar su propio modelo o integrar un sistema de recuperación”, dijo Prakash. “Juntos también desarrollamos documentación y procesos comunitarios”.

Más allá de la infraestructura de capacitación, Together colaboró ​​con otras organizaciones de investigación, incluida LAION (que ayudó a desarrollar Stable Diffusion) y el tecnólogo Huu Nguyen. ontocord para crear un conjunto de datos de entrenamiento para los modelos. Llamó al Conjunto de datos generalista de instrucción abiertael conjunto de datos contiene más de 40 millones de ejemplos de preguntas y respuestas, preguntas de seguimiento y más diseñadas para “enseñar” a un modelo cómo responder a diferentes instrucciones (p. ej., “Escriba un esquema para un artículo de historia sobre la Guerra Civil”).

Para solicitar comentarios, Together lanzó un manifestación que cualquiera puede usar para interactuar con los modelos de OpenChatKit.

“La motivación clave era permitir que cualquier persona usara OpenChatKit para mejorar el modelo y crear más modelos de chat para tareas específicas”, agregó Prakash. “Si bien los modelos de lenguaje grande han demostrado una capacidad impresionante para responder preguntas generales, tienden a lograr una precisión mucho mayor cuando se ajustan para aplicaciones específicas”.

Prakash dice que los modelos pueden realizar una variedad de tareas, que incluyen resolver problemas matemáticos básicos de nivel secundario, generar código Python, escribir historias y resumir documentos. Entonces, ¿qué tan bien resisten las pruebas? Bastante bien, según mi experiencia, al menos para cosas básicas como escribir cartas de presentación que suenen plausibles.

OpenChatKit puede escribir cartas de presentación, entre otras cosas. Créditos de imagen: OpenChatKit

Pero hay un límite muy claro. Siga chateando con los modelos de OpenChatKit el tiempo suficiente y comenzarán a tener los mismos problemas que exhiben ChatGPT y otros chatbots recientes, como repetir información falsa. Conseguí que los modelos de OpenChatKit dieran una respuesta contradictoria sobre si la Tierra era plana, por ejemplo, y una declaración totalmente falsa sobre quién ganó las elecciones presidenciales de EE. UU. de 2020.

OpenChatKit, respondiendo una pregunta (incorrectamente) sobre las elecciones presidenciales de EE. UU. de 2020. Créditos de imagen: OpenChatKit

Los modelos de OpenChatKit son débiles en otras áreas menos alarmantes, como el cambio de contexto. Cambiar el tema en medio de una conversación a menudo los confundirá. Tampoco son particularmente hábiles en la escritura creativa y las tareas de codificación y, a veces, repiten sus respuestas sin cesar.

Prakash culpa al conjunto de datos de entrenamiento, que señala que es un trabajo activo en progreso. “Es un área en la que continuaremos mejorando y hemos diseñado un proceso en el que la comunidad abierta puede participar activamente en esto”, dijo, refiriéndose a la demostración.

La calidad de las respuestas de OpenChatKit puede dejar mucho que desear. (Para ser justos, los ChatGPT no son dramáticamente mejores según el aviso). Pero Together está siendo proactivo, o al menos intenta ser proactivo, en el frente de la moderación.

Si bien se puede solicitar a algunos chatbots similares a ChatGPT que escriban texto sesgado u odioso, debido a sus datos de entrenamiento, algunos de los cuales provienen de fuentes tóxicas, los modelos OpenChatKit son más difíciles de coaccionar. Me las arreglé para que escribieran un correo electrónico de phishing, pero no caerían en un territorio más controvertido, como respaldar el Holocausto o justificar por qué los hombres son mejores directores ejecutivos que las mujeres.

OpenChatKit emplea cierta moderación, como se ve aquí. Créditos de imagen: OpenChatKit

Sin embargo, la moderación es una característica opcional de OpenChatKit: los desarrolladores no están obligados a usarla. Si bien uno de los modelos fue diseñado “específicamente como una barandilla” para el otro modelo más grande, el modelo que impulsa la demostración, el modelo más grande no tiene filtrado aplicado de forma predeterminada, según Prakash.

Eso es diferente al enfoque de arriba hacia abajo favorecido por OpenAI, Anthropic y otros, que implica una combinación de moderación y filtrado humano y automatizado a nivel de API. Prakash argumenta que esta opacidad a puertas cerradas podría ser más dañina a largo plazo que la falta de filtro obligatorio de OpenChatKit.

“Al igual que muchas tecnologías de doble uso, la IA ciertamente puede usarse en contextos maliciosos. Esto es cierto para la IA abierta o los sistemas cerrados disponibles comercialmente a través de las API”, dijo Prakash. “Nuestra tesis es que cuanto más la comunidad de investigación abierta pueda auditar, inspeccionar y mejorar las tecnologías de IA generativa, mejor capacitados estaremos como sociedad para encontrar soluciones a estos riesgos. Creemos que un mundo en el que el poder de los grandes modelos generativos de IA se encuentra únicamente en manos de un puñado de grandes empresas de tecnología, incapaces de auditar, inspeccionar o comprender, conlleva un mayor riesgo”.

Subrayando el punto de Prakash sobre el desarrollo abierto, OpenChatKit incluye un segundo conjunto de datos de entrenamiento, llamado OIG-moderation, que tiene como objetivo abordar una variedad de desafíos de moderación de chatbots, incluidos los bots que adoptan tonos demasiado agresivos o depresivos. (Ver: Chat de Bing.) Se usó para entrenar el más pequeño de los dos modelos en OpenChatKit, y Prakash dice que la moderación OIG se puede aplicar para crear otros modelos que detecten y filtren texto problemático si los desarrolladores optan por hacerlo.

“Nos preocupamos profundamente por la seguridad de la IA, pero creemos que la seguridad a través de la oscuridad es un enfoque deficiente a largo plazo. Una postura abierta y transparente es ampliamente aceptada como la postura predeterminada en los mundos de la criptografía y la seguridad informática, y creemos que la transparencia será fundamental si queremos construir una IA segura”, dijo Prakash. “Wikipedia es una gran prueba de cómo una comunidad abierta puede ser una gran solución para tareas de moderación desafiantes a gran escala”.

No estoy muy seguro. Para empezar, Wikipedia no es exactamente el estándar de oro: el proceso de moderación del sitio es famoso por su opacidad y territorialidad. Luego, está el hecho de que a menudo se abusa de los sistemas de código abierto (y rápidamente). Tomando como ejemplo el sistema de IA de generación de imágenes Stable Diffusion, a los pocos días de su lanzamiento, comunidades como 4chan estaban usando el modelo, que también incluye herramientas de moderación opcionales, para crear deepfakes pornográficos no consensuados de actores famosos.

La licencia de OpenChatKit prohíbe explícitamente usos como la generación de información errónea, la promoción del discurso de odio, el envío de spam y la intimidación o el acoso cibernético. Pero no hay nada que impida que los actores maliciosos ignoren esos términos y las herramientas de moderación.

Anticipándose a lo peor, algunos investigadores han comenzado a hacer sonar la alarma sobre los chatbots de acceso abierto.

NewsGuard, una empresa que rastrea información errónea en línea, encontró en un reciente estudiar que los chatbots más nuevos, específicamente ChatGPT, podrían verse obligados a escribir contenido que promueva afirmaciones perjudiciales para la salud sobre las vacunas, imitando la propaganda y la desinformación de China y Rusia y haciéndose eco del tono de los medios de comunicación partidistas. Según el estudio, ChatGPT cumplió aproximadamente el 80 % de las veces cuando se le pidió que escribiera respuestas basadas en ideas falsas y engañosas.

En respuesta a los hallazgos de NewsGuard, OpenAI mejoró los filtros de contenido de ChatGPT en el back-end. Por supuesto, eso no sería posible con un sistema como OpenChatKit, que coloca la responsabilidad de mantener los modelos actualizados en los desarrolladores.

Prakash mantiene su argumento.

“Muchas aplicaciones necesitan personalización y especialización, y creemos que un enfoque de código abierto admitirá mejor una diversidad saludable de enfoques y aplicaciones”, dijo. “Los modelos abiertos están mejorando y esperamos ver un fuerte aumento en su adopción”.


Source link