El coronavirus ha acelerado la era poshumana

Perceptrón: ‘audibles’ de seguimiento facial, chips analógicos de IA y aceleradores de partículas aceleradoras

Kyle Wiggers es un reportero senior de TechCrunch con un interés especial en la inteligencia artificial. Sus escritos han aparecido en VentureBeat y Digital Trends, así como en una variedad de blogs de dispositivos, incluidos Android Police, Android Authority, Droid-Life y XDA-Developers. Vive en Brooklyn con su pareja, un profesor de piano, y él mismo toca el piano. ocasionalmente, aunque en su mayoría sin éxito.

Más publicaciones de este colaborador La nueva directiva de la Casa Blanca requerirá acceso gratuito a estudios financiados con dólares de los impuestos La empresa emergente de la cadena de suministro FourKites, que recientemente despidió a trabajadores, recauda $30 millones

La investigación en el campo del aprendizaje automático y la IA, ahora una tecnología clave en prácticamente todas las industrias y empresas, es demasiado voluminosa para que alguien la lea en su totalidad. Esta columna, Perceptron, tiene como objetivo recopilar algunos de los descubrimientos y documentos recientes más relevantes, particularmente en inteligencia artificial, entre otros, y explicar por qué son importantes.

Un “audible” que utiliza un sonar para leer las expresiones faciales fue uno de los proyectos que nos llamó la atención en las últimas semanas. Así lo hizo ProcTHOR, un marco del Instituto Allen para la IA (AI2) que genera entornos procedimentales que se pueden usar para entrenar robots del mundo real. Entre los otros aspectos destacados, Meta creó una IA sistema que puede predecir la estructura de una proteína dada una sola secuencia de aminoácidos. Y los investigadores del MIT desarrollaron nuevos hardware que afirman ofrece un cálculo más rápido para la IA con menos energía.

El “earable”, que fue desarrollado por un equipo de Cornell, se parece a un par de auriculares voluminosos. Los parlantes envían señales acústicas al costado de la cara del usuario, mientras que un micrófono capta los ecos apenas detectables creados por la nariz, los labios, los ojos y otras características faciales. Estos “perfiles de eco” permiten que el auricular capture movimientos como levantar las cejas y mover los ojos, que un algoritmo de IA traduce en expresiones faciales completas.

Créditos de imagen: Cornell

El earable tiene algunas limitaciones. Solo dura tres horas con la batería y tiene que descargar el procesamiento a un teléfono inteligente, y el algoritmo de IA de traducción de eco debe entrenarse con 32 minutos de datos faciales antes de que pueda comenzar a reconocer expresiones. Pero los investigadores argumentan que es una experiencia mucho más elegante que las grabadoras que se usan tradicionalmente en animaciones para películas, televisión y videojuegos. Por ejemplo, para el juego de misterio LA Noire, Rockstar Games construyó una plataforma con 32 cámaras enfocadas en la cara de cada actor.

Tal vez algún día, el oído de Cornell se utilice para crear animaciones para robots humanoides. Pero esos robots primero tendrán que aprender a navegar por una habitación. Afortunadamente, ProcTHOR de AI2 da un paso (sin juego de palabras) en esta dirección, creando miles de escenas personalizadas que incluyen aulas, bibliotecas y oficinas en las que los robots simulados deben completar tareas, como recoger objetos y mover muebles.

La idea tras bambalinas, que tiene iluminación simulada y contiene un subconjunto de una gran variedad de materiales de superficie (p. ej., madera, azulejos, etc.) y objetos domésticos, es exponer los robots simulados a la mayor variedad posible. Es una teoría bien establecida en IA que el rendimiento en entornos simulados puede mejorar el rendimiento de los sistemas del mundo real; Las empresas de automóviles autónomos como Waymo de Alphabet simulan vecindarios enteros para ajustar el comportamiento de sus automóviles en el mundo real.

Créditos de imagen: Instituto Allen de Inteligencia Artificial

En cuanto a ProcTHOR, AI2 afirma en un documento que escalar la cantidad de entornos de capacitación mejora constantemente el rendimiento. Eso es un buen augurio para los robots destinados a hogares, lugares de trabajo y otros lugares.

Por supuesto, entrenar este tipo de sistemas requiere mucha potencia de cómputo. Pero ese podría no ser el caso para siempre. Los investigadores del MIT dicen que han creado un procesador “analógico” que se puede usar para crear redes súper rápidas de “neuronas” y “sinapsis”, que a su vez se pueden usar para realizar tareas como reconocer imágenes, traducir idiomas y más.

El procesador de los investigadores utiliza “resistencias protónicas programables” dispuestas en una matriz para “aprender” habilidades. Aumentar y disminuir la conductancia eléctrica de las resistencias imita el fortalecimiento y el debilitamiento de las sinapsis entre las neuronas del cerebro, una parte del proceso de aprendizaje.

La conductancia está controlada por un electrolito que gobierna el movimiento de los protones. Cuando se empujan más protones en un canal en la resistencia, la conductancia aumenta. Cuando se eliminan los protones, la conductancia disminuye.

Procesador en una placa de circuito de computadora

Un material inorgánico, el vidrio de fosfosilicato, hace que el procesador del equipo del MIT sea extremadamente rápido porque contiene poros de tamaño nanométrico cuyas superficies proporcionan los caminos perfectos para la difusión de proteínas. Como beneficio adicional, el vidrio puede funcionar a temperatura ambiente y las proteínas no lo dañan a medida que se mueven a lo largo de los poros.

“Una vez que tenga un procesador analógico, ya no estará entrenando las redes en las que todos los demás están trabajando”, dijo el autor principal y postdoctorado del MIT, Murat Onen, en un comunicado de prensa. “Entrenará redes con complejidades sin precedentes que nadie más puede permitirse y, por lo tanto, las superará ampliamente a todas. En otras palabras, este no es un automóvil más rápido, es una nave espacial”.

Hablando de aceleración, ahora se está utilizando el aprendizaje automático gestión de aceleradores de partículas, al menos en forma experimental. En el Laboratorio Nacional Lawrence Berkeley, dos equipos han demostrado que la simulación basada en ML de la máquina completa y el haz les brinda una predicción altamente precisa hasta 10 veces mejor que el análisis estadístico ordinario.

Créditos de imagen: Thor Swift/Laboratorio de Berkeley

“Si puede predecir las propiedades del haz con una precisión que supera sus fluctuaciones, puede usar la predicción para aumentar el rendimiento del acelerador”, dijo Daniele Filippetto del laboratorio. No es poca cosa simular toda la física y el equipo involucrado, pero, sorprendentemente, los primeros esfuerzos de varios equipos para hacerlo arrojaron resultados prometedores.

Y en el Laboratorio Nacional de Oak Ridge, una plataforma impulsada por IA les permite realizar una tomografía computarizada hiperespectral mediante la dispersión de neutrones, encontrando el óptimo… tal vez deberíamos dejar que ellos expliquen.

En el mundo de la medicina, hay una nueva aplicación de análisis de imágenes basada en el aprendizaje automático en el campo de la neurología, donde los investigadores del University College London han entrenado un modelo para detectar signos tempranos de lesiones cerebrales que causan epilepsia.

Resonancias magnéticas de cerebros utilizadas para entrenar el algoritmo UCL.

Una causa frecuente de epilepsia resistente a los medicamentos es lo que se conoce como displasia cortical focal, una región del cerebro que se ha desarrollado de manera anormal pero que, por alguna razón, no parece anormal en la resonancia magnética. Detectarlo temprano puede ser extremadamente útil, por lo que el equipo de UCL entrenó un modelo de inspección de resonancia magnética llamado Detección de lesiones epilépticas multicéntricas en miles de ejemplos de regiones cerebrales sanas y afectadas por FCD.

El modelo pudo detectar dos tercios de los FCD que se mostraron, lo que en realidad es bastante bueno ya que los signos son muy sutiles. De hecho, encontró 178 casos en los que los médicos no pudieron localizar un FCD, pero sí pudieron. Naturalmente, la última palabra corresponde a los especialistas, pero una computadora que insinúa que algo podría estar mal a veces puede ser todo lo que se necesita para mirar más de cerca y obtener un diagnóstico confiable.

“Pusimos énfasis en crear un algoritmo de IA que fuera interpretable y pudiera ayudar a los médicos a tomar decisiones. Mostrar a los médicos cómo el algoritmo MELD hizo sus predicciones fue una parte esencial de ese proceso”, dijo Mathilde Ripart de UCL.


Source link