El gobierno del Reino Unido activa el escrutinio de seguridad nacional del acuerdo Nvidia-Arm

Su próximo teléfono puede tener un procesador de aprendizaje automático ARM

by

in

ARM no construye ningún chip en sí mismo, pero sus diseños son el núcleo de prácticamente todas las CPU en los teléfonos inteligentes, cámaras y dispositivos IoT modernos. Hasta el momento, los socios de la compañía han enviado más de 125 mil millones de chips basados ​​en ARM. Después de pasarse a las GPU en los últimos años, la empresa anunció hoy que ahora ofrecerá a sus socios procesadores dedicados de detección de objetos y aprendizaje automático. proyecto trilliumcomo se llama el proyecto general, está destinado a hacer que los chips de aprendizaje automático (ML) de ARM sean el estándar de facto para la plataforma de aprendizaje automático para dispositivos móviles e IoT.

Para este primer lanzamiento, ARM está lanzando un procesador ML para cargas de trabajo generales de IA y una próxima generación chip de detección de objetos que se especializa en detectar rostros, personas y sus gestos, etc. en videos que pueden tener una resolución tan alta como Full HD y funcionar a 60 cuadros por segundo. Este es en realidad el chip de detección de objetos de segunda generación de ARM. La primera generación corrió La cámara de seguridad inteligente de Hive.

Como me dijeron Jem Davies, miembro de ARM y gerente general de aprendizaje automático, y Rene Haas, presidente de la compañía de su grupo de productos IP, la compañía decidió comenzar a construir estos chips desde cero. “Podríamos haber producido cosas sobre lo que ya teníamos, pero decidimos que necesitábamos un nuevo diseño”, me dijo Davies. “Muchos de nuestros segmentos de mercado tienen limitaciones de energía, por lo que necesitábamos ese nuevo diseño para ser eficiente en el consumo de energía”. El equipo podría haber analizado su arquitectura de GPU existente y ampliado eso, pero Davies señaló que, en su mayor parte, las GPU no son excelentes para administrar su presupuesto de memoria, y las cargas de trabajo de aprendizaje automático a menudo dependen de mover datos dentro y fuera de manera eficiente. memoria.

ARM enfatiza que estos nuevos chips de aprendizaje automático están destinados a ejecutar modelos de aprendizaje automático en el borde (y no para entrenarlos). La promesa es que serán muy eficientes (la promesa es de 3 teraops por vatio) pero seguirán ofreciendo un rendimiento móvil de 4,6 teraops, y la empresa espera que esa cifra aumente con optimizaciones adicionales. Por supuesto, encontrar el equilibrio adecuado entre la potencia y la duración de la batería está en el corazón de gran parte de lo que hace ARM, y Davies y Haas creen que el equipo encontró la combinación correcta aquí.

ARM espera que muchos OEM utilicen juntos la detección de objetos y los chips ML. El chip de detección de objetos podría usarse para un primer paso, por ejemplo, para detectar caras u objetos en una imagen y luego pasar la información de dónde están al chip ML, que luego puede hacer el reconocimiento real de caras o imágenes.

“Los OEM tienen ideas, tienen prototipos de aplicaciones y solo están esperando que les proporcionemos ese rendimiento”, dijo Davies.

El ejemplo canónico de ARM para esto es una máscara de buceo inteligente de realidad aumentada (Davies es un buzo certificado, en caso de que se lo pregunte). Esta máscara podría decirle qué pez está viendo mientras se balancea en las cálidas aguas de Kauai, por ejemplo. Pero el escenario más realista es probablemente una solución de IoT que usa video para vigilar una intersección concurrida donde desea saber si las carreteras están bloqueadas o si es hora de vaciar un bote de basura que parece estar teniendo mucho uso últimamente.

“La idea a tener en cuenta aquí es que este es un trabajo bastante sofisticado que se lleva a cabo localmente”, dijo Haas, y agregó que si bien hay una gran cantidad de rumores sobre los dispositivos que pueden tomar decisiones, esas decisiones a menudo se toman en la nube. , no localmente. ARM cree que hay muchos casos de uso para el aprendizaje automático en el borde, ya sea en un teléfono, en un dispositivo IoT o en un automóvil.

De hecho, Haas y Davies esperan que veamos algunos de estos chips en los autos en el futuro. Mientras que empresas como Nvidia están colocando supercomputadoras en los automóviles para potenciar la conducción autónoma, ARM cree que sus chips son excelentes para detectar objetos en un espejo inteligente, por ejemplo, donde hay restricciones de calor y espacio. En otro extremo del espectro, ARM también está comercializando estos chips para los fabricantes de pantallas que desean poder sintonizar videos y hacer que se vean mejor en función de un análisis de lo que sucede en la pantalla.

“Creemos que esto realmente va a desencadenar un montón de capacidades”, dijo Haas.

Recientemente hemos visto a varios fabricantes de teléfonos inteligentes construir sus propios chips de IA. Eso incluye Pixel Visual Core de Google para trabajar con imágenes, Neural Engine del iPhone X y dispositivos como el Kirin 970 de Huawei. En su mayor parte, todos esos son chips caseros. ARM, por supuesto, quiere una parte de este negocio.

Para los desarrolladores, ARM ofrecerá todas las bibliotecas necesarias para hacer uso de estos chips y trabajar con marcos de aprendizaje automático existentes para hacerlos compatibles con estos procesadores. “No estamos planeando reemplazar los marcos, sino conectar nuestra IP (propiedad intelectual) en ellos”, dijo Davies.

El plan actual es lanzar el diseño del procesador ML a los socios a mediados de año. Debería llegar a los primeros dispositivos de consumo aproximadamente nueve meses después.


Source link