Cargar IA, una empresa que construye hardware para acelerar el procesamiento de IA en el perímetro, surgió hoy de manera sigilosa con $21,7 millones en financiamiento de la Serie A liderado por Anzu Partners, con la participación de AlleyCorp, Scout Ventures, Silicon Catalyst Angels, Schams Ventures, E14 Fund y Alumni Ventures. En declaraciones a TechCrunch por correo electrónico, el cofundador y director ejecutivo Naveen Verma dijo que las ganancias se destinarán al desarrollo de hardware y software, así como a respaldar nuevos compromisos con los clientes.
“Ahora era el momento adecuado para aumentar porque la tecnología ha sido ampliamente validada a través de I + D anterior en toda la pila de cómputo”, dijo Verma. “[It] proporciona un camino claro hacia la producción (sin desarrollo de nueva tecnología) y una base para la propuesta de valor en las aplicaciones del cliente a la vanguardia de la IA, posicionando a EnCharge para el impacto en el mercado… Muchas aplicaciones de borde están en una fase emergente, con las mayores oportunidades de valor de La IA aún se está definiendo”.
Encharge AI fue ideado por Verma, Echere Iroaga y Kailash Gopalakrishnan. Verma es el director del Centro Keller para la Innovación en la Educación en Ingeniería de Princeton, mientras que Gopalakrishnan era (hasta hace poco) un becario de IBM, habiendo trabajado en el gigante tecnológico durante casi 18 años. Iroaga, por su parte, anteriormente lideró la unidad de negocios de conectividad de la empresa de semiconductores Macom como vicepresidente y gerente general.
EnCharge tiene sus raíces en subvenciones federales que Verma recibió en 2017 junto con colaboradores de la Universidad de Illinois en Urbana-Champaign. Como resultado de la Iniciativa de Resurgimiento de Electrónica en curso de DARPA, que tiene como objetivo avanzar ampliamente en la tecnología de chips de computadora, Verma lideró un esfuerzo de $ 8.3 millones para investigar nuevos tipos de dispositivos de memoria no volátil.
A diferencia de la memoria “volátil” que prevalece en las computadoras de hoy en día, la memoria no volátil puede retener datos sin una fuente de alimentación continua, lo que teóricamente la hace más eficiente desde el punto de vista energético. La memoria flash y la mayoría de los dispositivos de almacenamiento magnético, incluidos los discos duros y los disquetes, son ejemplos de memoria no volátil.
DARPA también financió la investigación de Verma sobre computación en memoria para cómputos de aprendizaje automático: “en memoria”, aquí, refiriéndose a ejecutar cálculos en RAM para reducir la latencia introducida por los dispositivos de almacenamiento.
EnCharge se lanzó para comercializar la investigación de Verma con hardware integrado en un factor de forma PCIe estándar. Al utilizar la computación en memoria, el hardware complementario personalizado de EnCharge puede acelerar las aplicaciones de IA en servidores y máquinas de “borde de red”, afirma Verma, al tiempo que reduce el consumo de energía en relación con los procesadores de computadora estándar.
Al iterar el hardware, el equipo de EnCharge tuvo que superar varios desafíos de ingeniería. La computación en memoria tiende a ser sensible a las fluctuaciones de voltaje y los picos de temperatura. Entonces, EnCharge diseñó sus chips usando capacitores en lugar de transistores; Los condensadores, que almacenan una carga eléctrica, se pueden fabricar con mayor precisión y no se ven tan afectados por los cambios de voltaje.
EnCharge también tuvo que crear un software que permitiera a los clientes adaptar sus sistemas de inteligencia artificial al hardware personalizado. Verma dice que el software, una vez terminado, permitirá que el hardware de EnCharge funcione con diferentes tipos de redes neuronales (es decir, conjuntos de algoritmos de IA) sin dejar de ser escalable.
“Los productos EnCharge brindan ganancias de órdenes de magnitud en eficiencia energética y rendimiento”, dijo Verma. “Esto está habilitado por una tecnología de próxima generación altamente robusta y escalable, que se ha demostrado en generaciones de chips de prueba, escalados a nodos avanzados y escalados en arquitecturas. EnCharge se diferencia tanto de las tecnologías digitales que sufren cuellos de botella existentes en la memoria y la eficiencia informática como de las tecnologías más allá de lo digital que enfrentan barreras tecnológicas fundamentales y una validación limitada en toda la pila de cómputo”.
Esas son afirmaciones elevadas, y vale la pena señalar que EnCharge aún no ha comenzado a producir en masa su hardware, y no tiene clientes en fila. (Verma dice que la empresa es anterior a los ingresos). En otro desafío, EnCharge se enfrenta a una competencia bien financiada en el ya saturado mercado de hardware de aceleradores de IA. Axelera y GigaSpaces están desarrollando hardware en memoria para acelerar las cargas de trabajo de IA. NeuroBlade recaudó en octubre pasado 83 millones de dólares para su chip de inferencia en memoria para centros de datos y dispositivos periféricos. Syntiant, para no quedarse atrás, está suministrando chips de borde de IA de procesamiento de voz en memoria.
Pero la financiación que ha logrado asegurar hasta ahora sugiere que los inversores, al menos, tienen fe en la hoja de ruta de EnCharge.
“A medida que Edge AI continúa impulsando la automatización comercial, existe una gran demanda de tecnologías sostenibles que puedan proporcionar mejoras dramáticas en la capacidad de inferencia de IA de extremo a extremo junto con la eficiencia energética y de costos”, dijo Jimmy Kan de Anzu Partners en un comunicado de prensa. “La tecnología de EnCharge aborda estos desafíos y ha sido validada con éxito en silicio, totalmente compatible con la producción en volumen”.
EnCharge tiene aproximadamente 25 empleados y tiene su sede en Santa Clara.
Source link