Meta ultima un superordenador para impulsar el metaverso de Mark Zuckerberg

by

in

La inteligencia artificial (IA), la tecnología que hace posible las aplicaciones informáticas más complejas que manejamos en la actualidad, requiere el procesamiento de cantidades ingentes de datos y mucha capacidad de cálculo. Meta (la empresa antes denominada Facebook) ha anunciado este lunes que a mediados de año entrará en funcionamiento un nuevo superordenador, el AI Research SuperCluster (RSC), especialmente pensado para contribuir al desarrollo de la IA. Desde la compañía subrayan que su cometido será crear modelos más exactos para los sistemas de aplicaciones ya existentes, pero también “desarrollar las tecnologías fundacionales con las que alimentaremos el metaverso”.

El metaverso es una especie de mundo virtual en el que, según los planes de Mark Zuckerberg, fundador de Facebook, pasaremos una buena parte de nuestras vidas. Allí nos relacionamos entre nosotros, nos entretendremos, trabajaremos, estudiaremos, haremos ejercicio y compraremos. El metaverso, la gran apuesta de Meta, todavía no existe. Para crear ese entorno virtual hará falta apoyarse en sistemas de aprendizaje automático y profundo (machine learning y deep learning), las técnicas más sofisticadas y prometedoras de IA. Estas herramientas permiten conseguir, por ejemplo, que los movimientos de los avatares sean lo más naturales posibles, que las gafas de realidad virtual capturen los movimientos faciales de los usuarios y los reproduzcan en su avatar o que las hojas de los árboles de ese mundo se muevan de forma convincente.

“El RSC ayudará a los investigadores de Meta a construir nuevos y mejores modelos de IA que puedan aprender de trillones de ejemplos, trabajar en cientos de lenguas distintas, analizar indistintamente texto, imágenes o vídeo y desarrollar nuevas herramientas de realidad aumentada”, sostienen desde la compañía, que no ha revelado dónde se ubicará el nuevo superordenador.

Aspecto de una sala de procesadores del superordenador AI RSC de Meta.
Aspecto de una sala de procesadores del superordenador AI RSC de Meta.

El término aprendizaje automático no es un eufemismo. Esta técnica de la inteligencia artificial consiste en dejar que el programa se busque la vida para resolver un problema dado. El elemento clave para que tenga éxito no es tanto cómo se programa el sistema, sino qué entrenamiento se le da para que saque sus propias conclusiones. Por ejemplo, si se quiere que sea capaz de reconocer un árbol el resultado será distinto si se le muestran mil árboles para que aprenda cómo son que si se le enseña un millón de ejemplos. En el aprendizaje automático, el tamaño de la base de datos importa. Gestionar bases de datos enormes requiere mucha potencia de cálculo y una infraestructura determinada. Y eso es lo que pretende aportar el nuevo superordenador de Meta.

Entre las nuevas aplicaciones que se investigarán a corto plazo se cuenta un traductor simultáneo de voz para grupos grandes de personas. Es decir, un programa capaz de traducir en tiempo real lo que digan personas en distintos idiomas, de forma que puedan colaborar en proyectos de trabajo o partidas de videojuego. También se trabajará en mejoras en sistemas de visión computacional (el reconocimiento y etiquetado automático de objetos a partir de imágenes) o en la detección de contenidos inadecuados. El llamado procesamiento del lenguaje natural, lo que permite que las máquinas procesen nuestras instrucciones orales, también tiene mucho margen de mejora. Con más entrenamiento se podría afinar la forma en que el sistema reconoce dialectos, discrimina el ruido ambiente de la voz humana o autocompleta silencios.

Aunque el superordenador todavía no está listo, las pruebas preliminares que se han hecho con él muestran que procesa los flujos de trabajo relacionados con la visión computacional 20 veces más rápido. También se ha comprobado que ejecuta la biblioteca de comunicación colectiva (NCCL) de Nvidia, los procesadores que usa Meta, nueve veces más deprisa que con el mejor centro de datos disponible hasta ahora y que entrena los grandes modelos de procesamiento natural del lenguaje tres veces más rápido. “Eso significa que un modelo con decenas de miles de millones de parámetros puede acabar su entrenamiento en tres semanas, comparado con las nueve que necesitaba hasta ahora”, aseguran desde Meta.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.




Source link