IA latenteuna startup que se escindió de ISR Internacionalfacilita la ejecución de cargas de trabajo de IA en el perímetro mediante la gestión dinámica de las cargas de trabajo según sea necesario.
Usando su proceso patentado de compresión y compilación, Latent AI promete comprimir archivos de biblioteca 10 veces y ejecutarlos con una latencia 5 veces menor que otros sistemas, todo mientras usa menos energía gracias a su nueva tecnología de IA adaptativa, que la compañía está lanzando como parte de su aparición en la competencia TechCrunch Disrupt Battlefield hoy.
Fundada por el CEO Jags Kandasamy y el CTO Sek Chai, la compañía ya ha recaudado una ronda semilla de $6.5 millones liderada por Steve Jurvetson de Future Ventures y seguida por Autotech Ventures.
Antes de iniciar Latent AI, Kandasamy vendió su startup anterior, OtoSense, a Analog Devices (además de administrar el negocio de HPE Mid-Market Security antes de eso). OtoSense usó datos de sensores de sonido y vibración para casos de uso de mantenimiento predictivo. Antes de su venta, la empresa trabajó con empresas como Delta Airlines y Airbus.
Créditos de imagen: IA latente
De alguna manera, Latent AI recoge parte de este trabajo y lo une con IP de SRI International.
“Con OtoSense, ya había hecho algunos trabajos avanzados”, dijo Kandasamy. “Habíamos movido la parte de reconocimiento de audio fuera de la nube. Hicimos el aprendizaje en la nube, pero el reconocimiento se realizó en el dispositivo perimetral y tuvimos que convertirlo rápidamente y bajarlo. Nuestra factura en los primeros meses nos hizo movernos de esa manera. No podría estar transmitiendo datos a través de LTE o 3G por mucho tiempo”.
En SRI, Chai trabajó en un proyecto que analizaba cómo administrar mejor la energía para objetos voladores donde, si tiene una sola fuente de energía, el sistema podría asignar recursos de manera inteligente para impulsar el vuelo o ejecutar las cargas de trabajo informáticas a bordo, principalmente para vigilancia, y luego cambie entre ellos según sea necesario. La mayoría de las veces, en un caso de uso de vigilancia, no sucede nada. Y si bien ese es el caso, no necesita calcular cada cuadro que ve.
“Tomamos eso y lo convertimos en una herramienta y una plataforma para que pueda aplicarlo a todo tipo de casos de uso, desde voz hasta visión, segmentación y series de tiempo”, explicó Kandasamy.
Lo que es importante tener en cuenta aquí es que la compañía ofrece los diversos componentes de lo que llama la plataforma de inferencia eficiente de IA latente (LEIP) como módulos independientes o como un sistema completamente integrado. El compresor y el compilador son los dos primeros y lo que la compañía está lanzando hoy es LEIP Adapt, la parte del sistema que administra las cargas de trabajo dinámicas de IA que Kandasamy describió anteriormente.
En términos prácticos, el caso de uso de LEIP Adapt es que su timbre inteligente alimentado por batería, por ejemplo, puede funcionar en un modo de baja potencia durante mucho tiempo, esperando que suceda algo. Luego, cuando alguien llega a su puerta, la cámara se activa para ejecutar un modelo más grande, tal vez incluso en la estación base del timbre que está enchufada a la corriente, para realizar el reconocimiento de imágenes. Y si un grupo completo de personas llega a uno (lo que no es probable en este momento, pero tal vez el próximo año, después de que la pandemia esté bajo control), el sistema puede descargar la carga de trabajo a la nube según sea necesario.
Kandasamy me dice que el interés en la tecnología ha sido “tremendo”. Dada su experiencia previa y la red de SRI International, tal vez no sorprenda que Latent AI esté despertando mucho interés en la industria automotriz, pero Kandasamy también señaló que la compañía está trabajando con empresas de consumo, incluido un fabricante de cámaras y audífonos. .
La compañía también está trabajando con una importante empresa de telecomunicaciones que está considerando Latent AI como parte de su plataforma de orquestación de AI y un gran proveedor de CDN para ayudarlos a ejecutar cargas de trabajo de AI en un backend de JavaScript.
Source link