Perceptrón: IA que ilumina la luna, improvisa gramática y enseña a los robots a caminar como humanos

Perceptrón: IA que ilumina la luna, improvisa gramática y enseña a los robots a caminar como humanos

La investigación en el campo del aprendizaje automático y la IA, ahora una tecnología clave en prácticamente todas las industrias y empresas, es demasiado voluminosa para que cualquiera pueda leerla en su totalidad. Esta columna, Perceptron, tiene como objetivo recopilar algunos de los descubrimientos y documentos recientes más relevantes, particularmente en inteligencia artificial, entre otros, y explicar por qué son importantes.

Durante las últimas semanas, los científicos desarrollaron un algoritmo para descubrir detalles fascinantes sobre los cráteres de asteroides de la luna, tenuemente iluminados y, en algunos casos, completamente negros. En otro lugar, los investigadores del MIT entrenaron un modelo de IA en libros de texto para ver si podía descifrar de forma independiente las reglas de un idioma específico. Y los equipos de DeepMind y Microsoft investigaron si los datos de captura de movimiento podrían usarse para enseñar a los robots cómo realizar tareas específicas, como caminar.

Con el lanzamiento pendiente (y predeciblemente retrasado) de Artemis I, la ciencia lunar vuelve a estar en el centro de atención. Irónicamente, sin embargo, son las regiones más oscuras de la luna las que son potencialmente las más interesantes, ya que pueden albergar hielo de agua que se puede utilizar para innumerables propósitos. Es fácil detectar la oscuridad, pero ¿qué hay ahí? Un equipo internacional de expertos en imágenes aplicó ML al problema con cierto éxito.

Aunque los cráteres se encuentran en la oscuridad más profunda, el Orbitador de Reconocimiento Lunar aún captura el fotón ocasional desde adentro, y el equipo reunió años de estas exposiciones subexpuestas (pero no totalmente negras) con un “procesamiento posterior basado en la física y basado en el aprendizaje profundo”. herramienta” descrito en Geophysical Research Letters. El resultado es que “ahora se pueden diseñar rutas visibles hacia las regiones permanentemente sombreadas, lo que reduce en gran medida los riesgos para los astronautas de Artemis y los exploradores robóticos”. según David Kring del Instituto Lunar y Planetario.

¡Que haya luz! El interior del cráter se reconstruye a partir de fotones perdidos. Créditos de imagen: VT Bickel, B. Moseley, E. Hauber, M. Shirley, J.-P. Williams y DA Kring

Tendrán linternas, imaginamos, pero es bueno tener una idea general de dónde ir de antemano y, por supuesto, podría afectar dónde concentran sus esfuerzos la exploración robótica o los módulos de aterrizaje.

Por muy útil que sea, no hay nada misterioso en convertir datos dispersos en una imagen. Pero en el mundo de la lingüística, la IA está haciendo avances fascinantes en cómo y si los modelos de lenguaje realmente saben lo que saben. En el caso de aprender la gramática de un idioma, un experimento del MIT descubrió que un modelo entrenado en varios libros de texto podía construir su propio modelo de cómo funcionaba un idioma determinado, hasta el punto en que su gramática para el polaco, por ejemplo, podía responder con éxito a los problemas de los libros de texto. sobre eso

“Los lingüistas han pensado que para comprender realmente las reglas de un lenguaje humano, para empatizar con lo que hace funcionar el sistema, tienes que ser humano. Queríamos ver si podemos emular los tipos de conocimiento y razonamiento que los humanos (lingüistas) aportan a la tarea”. dijo Adam Albright del MIT en un comunicado de prensa. Es una investigación muy temprana en este frente, pero prometedora porque muestra que los modelos de IA pueden “entender” reglas sutiles u ocultas sin instrucciones explícitas en ellas.

Pero el experimento no abordó directamente una pregunta abierta clave en la investigación de IA: cómo evitar que los modelos de lenguaje emitan un lenguaje tóxico, discriminatorio o engañoso. Nuevo trabajar out of DeepMind aborda esto, adoptando un enfoque filosófico del problema de alinear los modelos lingüísticos con los valores humanos.

Los investigadores del laboratorio postulan que no existe un camino “único para todos” hacia mejores modelos de lenguaje, porque los modelos deben incorporar diferentes características según los contextos en los que se implementen. Por ejemplo, un modelo diseñado para ayudar en el estudio científico idealmente solo haría declaraciones verdaderas, mientras que un agente que desempeñe el papel de moderador en un debate público ejercería valores como la tolerancia, el civismo y el respeto.

Entonces, ¿cómo se pueden inculcar estos valores en un modelo de lenguaje? Los coautores de DeepMind no sugieren una forma específica. En cambio, implican que los modelos pueden cultivar conversaciones más “sólidas” y “respetuosas” a lo largo del tiempo a través de procesos que denominan construcción y elucidación del contexto. Como explican los coautores: “Incluso cuando una persona no es consciente de los valores que rigen una determinada práctica conversacional, el agente aún puede ayudar al ser humano a comprender estos valores prefigurándolos en la conversación, haciendo que el curso de la comunicación sea más profundo y fructífero. para el hablante humano.”

Modelo de lenguaje LaMDA de Google respondiendo a una pregunta. Créditos de imagen: Google

Descubrir los métodos más prometedores para alinear los modelos lingüísticos requiere mucho tiempo y recursos, financieros y de otro tipo. Pero en dominios más allá del lenguaje, particularmente en los dominios científicos, ese podría no ser el caso por mucho más tiempo, gracias a una subvención de $3.5 millones de la National Science Foundation (NSF) otorgada a un equipo de científicos de la Universidad de Chicago, Argonne National Laboratory y MIT.

Con la subvención de la NSF, los beneficiarios planean construir lo que describen como “jardines modelo” o depósitos de modelos de IA diseñados para resolver problemas en áreas como la física, las matemáticas y la química. Los repositorios vincularán los modelos con datos y recursos informáticos, así como pruebas y pantallas automatizadas para validar su precisión, lo que idealmente hará que sea más sencillo para los investigadores científicos probar e implementar las herramientas en sus propios estudios.

“Un usuario puede venir a la [model] jardín y ver toda esa información de un vistazo”, Ben Blaiszik, investigador de ciencia de datos de Globus Labs involucrado en el proyecto, dijo en un comunicado de prensa. “Pueden citar el modelo, pueden aprender sobre el modelo, pueden contactar a los autores y pueden invocar el modelo ellos mismos en un entorno web en las instalaciones informáticas de liderazgo o en su propia computadora”.

Mientras tanto, en el dominio de la robótica, los investigadores están construyendo una plataforma para modelos de IA no con software, sino con hardware: hardware neuromórfico para ser exactos. Intel reclamación (es la última generación de su chip Loihi experimental puede permitir que un modelo de reconocimiento de objetos “aprenda” a identificar un objeto que nunca antes había visto utilizando hasta 175 veces menos energía que si el modelo se ejecutara en una CPU.

Un robot humanoide equipado con uno de los chips neuromórficos experimentales de Intel. Créditos de imagen: Intel

Los sistemas neuromórficos intentan imitar las estructuras biológicas del sistema nervioso. Mientras que los sistemas tradicionales de aprendizaje automático son rápidos o eficientes en el uso de energía, los sistemas neuromórficos logran velocidad y eficiencia mediante el uso de nodos para procesar información y conexiones entre los nodos para transferir señales eléctricas mediante circuitos analógicos. Los sistemas pueden modular la cantidad de energía que fluye entre los nodos, lo que permite que cada nodo realice el procesamiento, pero solo cuando sea necesario.

Intel y otros creen que la computación neuromórfica tiene aplicaciones en la logística, por ejemplo, impulsar un robot construido para ayudar con los procesos de fabricación. Es teórico en este punto, la computación neuromórfica tiene sus desventajas, pero tal vez algún día, esa visión se haga realidad.

Créditos de imagen: Mente profunda

Más cercano a la realidad es el reciente de DeepMind trabajar en “inteligencia incorporada”, o usar movimientos humanos y animales para enseñar a los robots a driblar una pelota, cargar cajas e incluso jugar al fútbol. Los investigadores del laboratorio diseñaron una configuración para registrar datos de rastreadores de movimiento usados ​​por humanos y animales, a partir de los cuales un sistema de inteligencia artificial aprendió a inferir cómo completar nuevas acciones, como caminar en un movimiento circular. Los investigadores afirman que este enfoque se tradujo bien en los robots del mundo real, por ejemplo, permitiendo que un robot de cuatro patas caminara como un perro mientras botaba una pelota al mismo tiempo.

Coincidentemente, Microsoft a principios de este verano liberado una biblioteca de datos de captura de movimiento destinada a estimular la investigación de robots que puedan caminar como los humanos. Llamada MoCapAct, la biblioteca contiene clips de captura de movimiento que, cuando se usan con otros datos, se pueden usar para crear robots bípedos ágiles, al menos en simulación.

“[Creating this dataset] ha tardado el equivalente a 50 años en muchos equipos equipados con GPU [servers] … un testimonio del obstáculo computacional que MoCapAct elimina para otros investigadores”, escribieron los coautores del trabajo en una publicación de blog. “Esperamos que la comunidad pueda aprovechar nuestro conjunto de datos y trabajar para realizar una investigación increíble sobre el control de los robots humanoides”.

La revisión por pares de artículos científicos es un trabajo humano invaluable, y es poco probable que la IA se haga cargo allí, pero en realidad puede ayudar a garantizar que las revisiones por pares sean realmente útiles. Un grupo de investigación suizo ha estado analizando evaluación basada en modelos de revisiones por pares, y sus primeros resultados son mixtos, en el buen sentido. No hubo ningún método o tendencia obvio bueno o malo, y la calificación del impacto de la publicación no pareció predecir si una revisión fue completa o útil. Sin embargo, está bien, porque aunque la calidad de las revisiones difiere, no le gustaría que hubiera una falta sistemática de buenas revisiones en todas partes, excepto en las principales revistas, por ejemplo. Su trabajo está en curso.

Por último, para cualquier persona preocupada por la creatividad en este dominio, aquí hay un proyecto personal de Karen X. Cheng eso muestra cómo se puede combinar un poco de ingenio y trabajo duro con la IA para producir algo verdaderamente original.




Source link