Stripe va más allá de los pagos con Stripe Identity para proporcionar verificación de identificación basada en IA para transacciones y mucho más

Deep Vision anuncia su procesador de inteligencia artificial de baja latencia para el borde

Visión profunda, una nueva empresa de inteligencia artificial que está construyendo un chip de inferencia de inteligencia artificial para soluciones de computación de borde, está saliendo sigilosamente hoy. Los nuevos procesadores ARA-1 de la empresa de seis años prometen lograr el equilibrio adecuado entre baja latencia, eficiencia energética y potencia de cálculo para su uso en cualquier cosa, desde sensores hasta cámaras y servidores de borde completos.

Debido a su fortaleza en el análisis de video en tiempo real, la compañía está apuntando su chip a soluciones alrededor del comercio minorista inteligente, incluidas las tiendas sin cajero, las ciudades inteligentes y la Industria 4.0 / robótica. La compañía también está trabajando con proveedores de la industria automotriz, pero menos en la conducción autónoma que en monitorear la actividad en la cabina para asegurarse de que los conductores presten atención a la carretera y no estén distraídos ni con sueño.

Créditos de imagen: Visión profunda

La empresa fue fundada por su director de tecnología, Rehan Hameed, y su arquitecto jefe, Wajahat Qadeer, que reclutó a Ravi Annavajjhala, que anteriormente trabajó en Intel y SanDisk, como director ejecutivo de la empresa. Hameed y Qadeer desarrollaron la arquitectura de Deep Vision como parte de una tesis doctoral en Stanford.

“Se les ocurrió una arquitectura muy atractiva para la IA que minimiza el movimiento de datos dentro del chip”, explicó Annavajjhala. “Eso le brinda una eficiencia extraordinaria, tanto en términos de rendimiento por dólar como de rendimiento por vatio, cuando se analizan las cargas de trabajo de IA”.

Sin embargo, mucho antes de que el equipo tuviera hardware en funcionamiento, la empresa se centró en crear su compilador para asegurarse de que su solución pudiera realmente satisfacer las necesidades de sus clientes. Solo entonces finalizaron el diseño del chip.

Créditos de imagen: Visión profunda

Como me dijo Hameed, Deep Vision siempre se centró en reducir la latencia. Si bien sus competidores a menudo enfatizan el rendimiento, el equipo cree que para las soluciones de borde, la latencia es la métrica más importante. Si bien las arquitecturas que se centran en el rendimiento tienen sentido en el centro de datos, el director de tecnología de Deep Vision, Hameed, sostiene que esto no las hace necesariamente adecuadas en el borde.

“[Throughput architectures] requieren que el acelerador procese una gran cantidad de flujos al mismo tiempo para utilizar completamente el hardware, ya sea a través de la ejecución por lotes o por canalización ”, explicó. “Esa es la única forma de que obtengan su gran rendimiento. El resultado, por supuesto, es una alta latencia para las tareas individuales y eso, en nuestra opinión, las convierte en una mala opción para un caso de uso avanzado en el que el rendimiento en tiempo real es clave “.

Para habilitar este rendimiento, y Deep Vision afirma que su procesador ofrece una latencia mucho más baja que las TPU Edge de Google y MyriadX de Movidius, por ejemplo, el equipo está utilizando una arquitectura que reduce el movimiento de datos en el chip al mínimo. Además, su software optimiza el flujo de datos general dentro de la arquitectura en función de la carga de trabajo específica.

Créditos de imagen: Visión profunda

“En nuestro diseño, en lugar de incluir una estrategia de aceleración particular en el hardware, hemos construido las primitivas programables correctas en nuestro propio procesador, lo que permite que el software mapee cualquier tipo de flujo de datos o cualquier flujo de ejecución que pueda encontrar en un gráfico de red neuronal de manera eficiente sobre el mismo conjunto de primitivas básicas ”, dijo Hameed.

Con esto, el compilador puede mirar el modelo y descubrir cómo mapearlo mejor en el hardware para optimizar el flujo de datos y minimizar el movimiento de datos. Gracias a esto, el procesador y el compilador también pueden admitir prácticamente cualquier marco de red neuronal y optimizar sus modelos sin que los desarrolladores tengan que pensar en las limitaciones específicas del hardware que a menudo dificultan el trabajo con otros chips.

“Cada aspecto de nuestra pila de hardware / software se ha diseñado con los mismos dos objetivos de alto nivel en mente”, dijo Hameed. “Uno es minimizar el movimiento de datos para impulsar la eficiencia. Y también para mantener cada parte del diseño flexible de manera que se pueda utilizar el plan de ejecución correcto para cada tipo de problema “.

Desde su fundación, la compañía ha recaudado alrededor de $ 19 millones y ha presentado nueve patentes. El nuevo chip ha estado probando durante un tiempo, y aunque la compañía ya tiene un par de clientes, optó por permanecer bajo el radar hasta ahora. La empresa, obviamente, espera que su arquitectura única pueda darle una ventaja en este mercado, que se está volviendo cada vez más competitivo. Además de los chips Movidius de Intel (y los chips personalizados de Google y AWS para sus propias nubes), también hay muchas empresas emergentes en este espacio, incluidas las de Hailo, que recaudó una ronda de la Serie B de $ 60 millones a principios de este año y recientemente. también lanzó sus nuevos chips.


Source link