OpenAI actualiza su codificador de IA en lenguaje natural Codex y lanza una beta privada

OpenAI actualiza su codificador de IA en lenguaje natural Codex y lanza una beta privada

OpenAI ya ha realizado grandes cambios en Codex, el asistente de codificación impulsado por IA que la compañía anunció el mes pasado. El sistema ahora acepta comandos en inglés simple y genera código de trabajo en vivo, lo que permite que alguien cree un juego o una aplicación web sin siquiera nombrar una variable. Algunos codificadores afortunados (y, se supone, no codificadores) podrán patear los neumáticos en esta nueva API del Codex en una versión beta privada gratuita.

Codex se considera mejor como el motor de lenguaje versátil de OpenAI, GPT-3, pero entrenado solo en código en lugar de material escrito ordinario. Eso le permite hacer cosas como líneas completas de código o secciones enteras, pero cuando se anunció no era realmente algo con lo que un no codificador podría interactuar fácilmente.

Eso ha cambiado con esta nueva API, que interpreta las solicitudes cotidianas y ordinarias como “hacer que la pelota rebote en los lados de la pantalla” o “descargar esos datos utilizando la API pública y ordenarlos por fecha”, y publica el código de trabajo en uno de una docena de idiomas.

Recibí una demostración en vivo en la que los cofundadores de OpenAI, Greg Brockman (CTO) y Wojciech Zaremba (líder del Codex), construyeron un juego simple desde cero y explicaron lo que estaba sucediendo detrás de la cortina.

“Programar consiste en tener una visión y dividirla en partes, y luego crear código para esas piezas”, explicó Brockman. La intención del Codex es permitir que los codificadores dediquen más tiempo a la primera parte que a la segunda. Después de todo, una gran cantidad de código está duplicando o copiando directamente lo que otros han hecho antes; puede ser creativo, por supuesto, pero nadie va a ejercitar su imaginación para hacer cosas básicas como implementar un servidor web para probar un poco de código. Brockman hizo precisamente eso con una línea simple: “crear una página web que diga eso” o algo así.

Créditos de imagen: OpenAI

Un segundo después, había una docena de líneas de JavaScript haciendo eso de una manera totalmente estándar.

“Esta es la peor parte de la programación”, dijo Brockman. “He escrito este tipo de código probablemente un par de docenas de veces, y siempre olvido exactamente cómo funciona. No conozco estas API y no es necesario que las conozca. Puede hacer las mismas cosas más fácilmente, con menos pulsaciones de teclas o interacciones “.

Debido a que Codex está entrenado básicamente en todo el código público en GitHub, entre otros repositorios, está al tanto de todas las prácticas estándar, las 50 o 100 veces que alguien incluye un servidor web, controles de teclado o manipulaciones de objetos y animaciones en su código. Y debido a que el lado del lenguaje natural tiene toda la comprensión habitual de GPT-3, se obtiene cuando dices “hazlo más pequeño y recórtalo” y luego “controlas su posición horizontal con las teclas de flecha izquierda y derecha”, te refieres a la mismo “eso”.

También tiene en cuenta su propio trabajo, varios kilobytes de contexto de codificación para sí mismo, por lo que conoce las convenciones de nomenclatura que debe cumplir, los límites y solicitudes existentes, y otra información que la entrada del usuario hubiera implicado.

También es consciente de las generalidades incrustadas en el corpus de código. Por ejemplo, cuando Brockman le dijo que “hiciera caer la roca del cielo”, el sistema no preguntó qué es el “cielo”, a pesar de que no se había definido en el lienzo en gran parte en blanco. No solo hizo que la roca cayera desde la parte superior de la pantalla, sino que la velocidad de caída se aceleró como lo haría normalmente un objeto, porque es la mejor suposición de lo que significa “caer” y “cielo” a partir de otros usos y contextos.

Créditos de imagen: OpenAI

“Creemos que proporciona una nueva forma de interactuar con el software existente”, dijo Zaremba, quien construyó una versión limitada de esto para su tesis doctoral hace años, mientras realizaban una demostración de un complemento Codex para Microsoft Word. La automatización existe para muchas tareas en los procesadores de texto, por supuesto, pero ¿qué pasa si tienes un problema de formato extraño y quieres arreglar 100 instancias diferentes? Escriba “haga que todo el texto tenga el mismo tamaño y fuente, y haga espacios dobles simples” y lo hará, recortando los estilos extraviados y eligiendo el tamaño y la fuente más probable que se considere “normal”. Luego escriba “hacer que todos los encabezados sean de 24 puntos y en negrita” y se amplía al hacer eso, y así sucesivamente.

Vale la pena señalar aquí que este tipo de cosas es conveniente para muchos, pero crucial para aquellos que carecen de la capacidad para hacer estas cosas debido a cosas como discapacidades. Si está operando su procesador de texto usando comandos de voz o un joystick, ser capaz de realizar tareas complejas como las anteriores es extremadamente útil. Un codificador ciego, como cualquier otra persona, puede parchear un servidor de prueba público estándar, pero el proceso de hojear Stack Overflow, tomar el mejor fragmento, verificar la sintaxis, cambiar las variables relevantes, etc., seguramente será más largo.

Y para aquellos que trabajan dentro de los límites de la sintaxis y las convenciones transmitidas desde lo alto, el Codex se puede hacer fácilmente para reflejarlos exponiendo el modelo a la documentación. Codex también puede convertir y transferir el código de un idioma a otro, de la misma manera que un motor de traducción convierte el español en francés.

Brockman dijo que, al igual que con GPT-3, solo están rascando la superficie de lo que es posible y esperan sorprenderse con lo que se les ocurra a los desarrolladores (después de todo, OpenAI no predijo AI Dungeon). La versión beta será privada, como la de GPT-3, pero los desarrolladores pueden postularse y describir su proyecto y el equipo del Codex los revisará para su inclusión. Eventualmente, la API será pública de pago, pero el momento y el precio aún deben determinarse sobre eso.


Source link