Bienvenido a Perceptron, el resumen semanal de TechCrunch de noticias e investigaciones sobre IA de todo el mundo. El aprendizaje automático es una tecnología clave en prácticamente todas las industrias ahora, y están sucediendo demasiadas cosas para que alguien pueda mantenerse al día con todo. Esta columna tiene como objetivo recopilar algunos de los descubrimientos y artículos recientes más interesantes en el campo de la inteligencia artificial y explicar por qué son importantes.
(Anteriormente conocido como Deep Science; consulte las ediciones anteriores aquí).
El resumen de esta semana comienza con un par de estudios con visión de futuro de Facebook/Meta. El primero es una colaboración con la Universidad de Illinois en Urbana-Champaign que tiene como objetivo reducir la cantidad de emisiones de la producción de concreto. El hormigón representa alrededor del 8 % de las emisiones de carbono, por lo que incluso una pequeña mejora podría ayudarnos a alcanzar los objetivos climáticos.
Esto se llama “prueba de asentamiento”.
Lo que hizo el equipo de Meta/UIUC fue entrenar un modelo en más de mil fórmulas concretas, que diferían en proporciones de arena, escoria, vidrio esmerilado y otros materiales (puede ver un trozo de muestra de hormigón más fotogénico arriba). Al encontrar las tendencias sutiles en este conjunto de datos, pudo generar una serie de nuevas fórmulas optimizadas tanto para la fuerza como para las bajas emisiones. La fórmula ganadora resultó tener un 40 por ciento menos de emisiones que el estándar regional y cumplió… bueno, algunos de los requisitos de resistencia. Es extremadamente prometedor, y los estudios de seguimiento en el campo deberían mover la pelota nuevamente pronto.
El segundo estudio de Meta tiene que ver con cambiar la forma en que funcionan los modelos de lenguaje. La compañía quiere trabajar con expertos en imágenes neuronales y otros investigadores para comparar cómo los modelos de lenguaje se comparan con la actividad cerebral real durante tareas similares.
En particular, están interesados en la capacidad humana de anticipar palabras mucho antes de la actual mientras hablan o escuchan, como saber que una oración terminará de cierta manera, o que viene un “pero”. Los modelos de IA se están volviendo muy buenos, pero aún funcionan principalmente agregando palabras una por una como ladrillos de Lego, ocasionalmente mirando hacia atrás para ver si tiene sentido. Recién están comenzando pero ya tienen algunos resultados interesantes.
Volviendo a la punta de los materiales, los investigadores del Oak Ridge National Lab se están involucrando en la diversión de la formulación de IA. Usando un conjunto de datos de cálculos de química cuántica, sean los que sean, el equipo creó una red neuronal que podía predecir las propiedades de los materiales, pero luego la invirtió para que pudieran propiedades de entrada y hacer que sugiera materiales.
“En lugar de tomar un material y predecir sus propiedades dadas, queríamos elegir las propiedades ideales para nuestro propósito y trabajar hacia atrás para diseñar esas propiedades de manera rápida y eficiente con un alto grado de confianza. Eso se conoce como diseño inverso”, dijo Victor Fung de ORNL. Parece haber funcionado, pero puede comprobarlo usted mismo ejecutando el código en Github.
Créditos de imagen: ETHZ
Preocupado por las predicciones físicas en una escala completamente diferente, este proyecto ETHZ estima las alturas de las copas de los árboles en todo el mundo utilizando datos de los satélites Copernicus Sentinel-2 de la ESA (para imágenes ópticas) y GEDI de la NASA (medición láser orbital). La combinación de los dos en una red neuronal convolucional da como resultado un mapa global preciso de alturas de árboles de hasta 55 metros de altura.
Ser capaz de hacer este tipo de encuesta regular de biomasa a escala global es importante para el monitoreo del clima, como explica Ralph Dubayah de la NASA: “Simplemente no sabemos qué tan altos son los árboles a nivel mundial. Necesitamos buenos mapas globales de dónde están los árboles. Porque cada vez que cortamos árboles, liberamos carbono a la atmósfera y no sabemos cuánto carbono estamos liberando”.
Tu puedes fácilmente explore los datos en forma de mapa aquí.
También relacionado con los paisajes, este proyecto de DARPA trata de crear entornos simulados a gran escala para que los vehículos autónomos virtuales los atraviesen. Le adjudicaron el contrato a Intelaunque podrían haber ahorrado algo de dinero contactando a los creadores del juego. Snowrunnerque básicamente hace lo que DARPA quiere por $30.
Créditos de imagen: Intel
El objetivo de RACER-Sim es desarrollar AV todoterreno que ya sepan lo que es rugir sobre un desierto rocoso y otros terrenos difíciles. El programa de 4 años se centrará primero en crear los entornos, construir modelos en el simulador y luego transferir las habilidades a sistemas robóticos físicos.
En el dominio de los productos farmacéuticos de IA, que tiene alrededor de 500 compañías diferentes en este momento, El MIT tiene un enfoque sensato en un modelo que solo sugiere moléculas que realmente se pueden hacer. “Los modelos a menudo sugieren nuevas estructuras moleculares que son difíciles o imposibles de producir en un laboratorio. Si un químico no puede realmente hacer la molécula, sus propiedades para combatir enfermedades no se pueden probar”.
Se ve genial, pero ¿puedes hacerlo sin cuerno de unicornio en polvo?
El modelo del MIT “garantiza que las moléculas están compuestas de materiales que se pueden comprar y que las reacciones químicas que ocurren entre esos materiales siguen las leyes de la química”. Suena como lo que hace Molecule.one, pero integrado en el proceso de descubrimiento. Sin duda, sería bueno saber que la droga milagrosa que propone su IA no requiere polvo de hadas u otra materia exótica.
Otro trabajo del MIT, la Universidad de Washington y otros se trata de enseñar a los robots a interactuar con objetos cotidianos, algo que todos esperamos se convierta en algo común en las próximas dos décadas, ya que algunos de nosotros no tenemos lavavajillas. El problema es que es muy difícil decir exactamente cómo las personas interactúan con los objetos, ya que no podemos transmitir nuestros datos en alta fidelidad para entrenar un modelo. Por lo tanto, hay muchas anotaciones de datos y etiquetado manual involucrados.
la nueva tecnica se enfoca en observar e inferir la geometría 3D muy de cerca, de modo que solo se necesitan algunos ejemplos de una persona que agarra un objeto para que el sistema aprenda cómo hacerlo por sí mismo. Normalmente, podría tomar cientos de ejemplos o miles de repeticiones en un simulador, pero este solo necesitó 10 demostraciones humanas por objeto para manipularlo de manera efectiva.
Créditos de imagen: MIT
Logró una tasa de éxito del 85 por ciento con este entrenamiento mínimo, mucho mejor que el modelo de referencia. Actualmente está limitado a un puñado de categorías, pero los investigadores esperan que pueda generalizarse.
Lo último de esta semana es algo prometedor trabajo de Deepmind en un “modelo de lenguaje visual” multimodal que combina el conocimiento visual con el conocimiento lingüístico para que ideas como “tres gatos sentados en una cerca” tengan una especie de representación cruzada entre la gramática y las imágenes. Así es como funcionan nuestras propias mentes, después de todo.
Flamingo, su nuevo modelo de “propósito general”, puede realizar una identificación visual pero también entablar un diálogo, no porque sean dos modelos en uno, sino porque une el lenguaje y la comprensión visual. Como hemos visto en otras organizaciones de investigación, este tipo de enfoque multimodal produce buenos resultados pero aún es altamente experimental y computacionalmente intenso.
Source link