Ícono del sitio La Neta Neta

Humanising Autonomy recauda $ 5 millones para ayudar a los autos autónomos a vigilar a los peatones

Humanising Autonomy recauda $ 5 millones para ayudar a los autos autónomos a vigilar a los peatones

Prácticamente todo lo relacionado con la fabricación de un automóvil autónomo es difícil, pero una de las partes más difíciles es asegurarse de que los vehículos sepan qué están haciendo los peatones y qué están a punto de hacer. Humanizando la Autonomía se especializa en esto y espera convertirse en una parte omnipresente de los sistemas de visión por computadora centrados en las personas en todo el mundo.

La empresa ha recaudado una ronda inicial de 5,3 millones de dólares de un grupo internacional de inversores gracias a la solidez de su sistema de inteligencia artificial, que, según afirma, supera a los humanos y funciona con imágenes de prácticamente cualquier cámara que pueda encontrar en un automóvil en estos días.

La tecnología de HA es un conjunto de módulos de aprendizaje automático capacitados para identificar diferentes comportamientos de peatones: ¿esta persona está a punto de salir a la calle? ¿Están prestando atención? ¿Han hecho contacto visual con el conductor? ¿Están en el teléfono? Ese tipo de cosas.

La empresa atribuye la solidez de sus modelos a dos cosas principales. En primer lugar, la variedad de sus fuentes de datos.

“Desde el primer día, recopilamos datos de cualquier tipo de fuente: cámaras de circuito cerrado de televisión, cámaras de tablero de todas las resoluciones, pero también sensores de vehículos autónomos”, dijo la cofundadora y directora ejecutiva Maya Pindeus. “También creamos asociaciones de datos y colaboramos con diferentes instituciones, por lo que pudimos crear un conjunto de datos sólido en diferentes ciudades con diferentes tipos de cámaras, diferentes resoluciones, etc. Eso realmente ha beneficiado al sistema, por lo que funciona durante la noche, en situaciones de lluvia en Michigan, etc.”

En particular, sus modelos se basan solo en datos RGB, renunciando a cualquier información de profundidad que pueda provenir de lidar, otro tipo de sensor común. Pero Pindeus dijo que ese tipo de datos no es de ninguna manera incompatible, simplemente no es tan abundante o relevante como el metraje de luz visual del mundo real.

En particular, HA tuvo cuidado de adquirir y analizar imágenes de accidentes, porque estos son casos especialmente informativos de fallas de vehículos autónomos o conductores humanos para leer las intenciones de los peatones, o viceversa.

La segunda ventaja que Pindeus afirma es la naturaleza modular de los modelos que ha creado la empresa. No hay un único modelo de “qué está haciendo ese peatón”, sino un conjunto de ellos que se pueden seleccionar y ajustar individualmente según las necesidades del agente autónomo o del hardware.

“Por ejemplo, si quieres saber si alguien está distraído mientras cruza la calle. Hay muchas cosas que hacemos como humanos para saber si alguien está distraído”, dijo. “Tenemos todos estos módulos diferentes que se unen para predecir si alguien está distraído, en riesgo, etc. Esto nos permite ajustarlo a diferentes entornos, por ejemplo, Londres y Tokio: las personas se comportan de manera diferente en diferentes entornos”.

“La otra cosa son los requisitos de procesamiento; Los vehículos autónomos tienen un requisito de GPU muy fuerte”, continuó. “Pero debido a que construimos estos módulos, podemos adaptarlo a diferentes requisitos de procesamiento. Nuestro software se ejecutará en una GPU estándar cuando nos integremos con vehículos de nivel 4 o 5, pero luego trabajaremos con el mercado de accesorios, adaptando aplicaciones que no tienen tanta energía disponible, pero los modelos aún funcionan con eso. Por lo tanto, también podemos trabajar en todos los niveles de automatización”.

La idea es que tiene poco sentido apuntar solo a los niveles más altos de autonomía cuando en realidad casi no hay autos de este tipo en la carretera, y es posible que el despliegue masivo no ocurra durante años. Mientras tanto, sin embargo, hay muchas oportunidades en la pila de sensores para un sistema que simplemente pueda decirle al conductor que hay un peligro detrás del automóvil, o activar el frenado automático de emergencia un segundo antes que los sistemas existentes.

Si bien hay muchos artículos publicados sobre la detección del comportamiento de los peatones o la predicción de lo que hará una persona en una imagen, hay pocas empresas que trabajen específicamente en esa tarea. Una empresa de sensores de pila completa que se centre en cámaras lidar y RGB necesita completar docenas o cientos de tareas, según cómo las defina: caracterizaciones y seguimiento de objetos, observación de señales, monitoreo de automóviles cercanos y distantes, etc. Puede ser más sencillo para ellos y para los fabricantes licenciar el funcionamiento y la solución altamente específica de HA en lugar de crear la suya propia o confiar en un seguimiento de objetos más generalizado.

“También hay oportunidades adyacentes a los vehículos autónomos”, señaló Pindeus. Los almacenes y las instalaciones de fabricación utilizan robots y otras máquinas autónomas que funcionarían mejor si supieran lo que están haciendo los trabajadores a su alrededor. Aquí, la naturaleza modular del sistema HA vuelve a funcionar a su favor: volver a entrenar solo las partes que necesitan volver a entrenarse es una tarea más pequeña que construir un nuevo sistema desde cero.

Actualmente, la empresa está trabajando con proveedores de movilidad en Europa, EE. UU. y Japón, incluidos Daimler Mercedes Benz y Airbus. Tiene algunos estudios de casos en proceso para mostrar cómo su sistema puede ayudar en una variedad de situaciones, desde advertir a los vehículos y peatones entre sí en los cruces de peatones populares hasta mejorar la planificación de rutas de los vehículos autónomos en la carretera. El sistema también puede revisar montones de imágenes anteriores y producir evaluaciones de riesgo de un área o momento del día dado el número y el comportamiento de los peatones allí.

La ronda inicial de $5 millones, dirigida por Anthemis, con Global Brain de Japón, Amplificador de Alemania y Synapse Partners de SV, se dedicará principalmente a comercializar el producto, dijo Pindeus.

“La tecnología está lista, ahora se trata de ponerla en tantas pilas como sea posible y fortalecer esas relaciones de nivel 1”, dijo.

Obviamente, es un campo rico en el que entrar, pero sigue siendo bastante nuevo. La tecnología puede estar lista para implementarse, pero la industria no se detendrá, por lo que puede estar seguro de que Humanising Autonomy se moverá con ella.


Source link
Salir de la versión móvil