La seguridad, como en “oye, no puedes entrar allí”, se convierte rápidamente en un trabajo complejo, posiblemente imposible, una vez que pasas algunos edificios y cámaras. ¿Quién puede vigilar en todas partes a la vez y enviar a alguien a tiempo para evitar un problema? Ambiente.ai no es el primero en afirmar que la IA puede, pero puede ser el primero en lograrlo a gran escala, y ha recaudado $ 52 millones para seguir creciendo.
El problema con los procesos de hoy es el tipo de cosas que cualquiera puede señalar. Si tiene una empresa moderna o un campus escolar con docenas o cientos de cámaras, producen tantas imágenes y datos que incluso un equipo de seguridad dedicado tendrá problemas para mantenerse al día. Como consecuencia, no solo es probable que se pierdan un evento importante en el momento en que sucede, sino que también están hasta los oídos de falsas alarmas y ruido.
“Las víctimas siempre miran las cámaras, esperando que alguien venga a ayudarlas… pero no es el caso”, dijo a TechCrunch el CEO y cofundador de Ambient.ai, Shikhar Shrestha. “En el mejor de los casos, esperas a que suceda el incidente, vas y sacas el video y trabajas desde allí. Tenemos las cámaras, tenemos los sensores, tenemos los oficiales, lo que falta es el cerebro en el medio”.
Obviamente, la compañía de Shrestha está buscando proporcionar el cerebro: una unidad central de procesamiento visual para imágenes de seguridad en vivo que pueda saber cuándo algo va mal e informar inmediatamente a las personas adecuadas. Pero sin el sesgo que amenaza tales esfuerzos, y sin reconocimiento facial.
Otros han hecho avances en esta idea en particular antes de ahora, pero hasta ahora ninguno ha visto una adopción seria. La primera generación de reconocimiento automático de imágenes, dijo Shrestha, fue una simple detección de movimiento, poco más que comprobar si los píxeles se movían en la pantalla, sin saber si se trataba de un árbol o de un invasor doméstico. Luego vino el uso del aprendizaje profundo para hacer el reconocimiento de objetos: identificar un arma en la mano o una ventana rota. Esto resultó útil pero limitado y algo de alto mantenimiento, requiriendo mucho entrenamiento específico para la escena y el objeto.
“La idea fue que, si miras lo que hacen los humanos para entender un video, tomamos mucha otra información: ¿la persona está sentada o de pie? ¿Están abriendo una puerta, están caminando o corriendo? ¿Están en el interior o al aire libre, de día o de noche? Reunimos todo eso para crear una especie de comprensión integral de la escena”, explicó Shrestha. “Usamos inteligencia de visión por computadora para extraer imágenes de una amplia gama de eventos. Desglosamos cada tarea y la llamamos primitiva: interacciones, objetos, etc., luego combinamos esos componentes básicos para crear una ‘firma’”.
El sistema Ambient.ai usa elementos de comportamiento y los conecta entre sí para saber si son un problema. Créditos de imagen: Ambiente.ai
Una firma puede ser algo así como “una persona sentada en su automóvil durante mucho tiempo por la noche” o “una persona parada junto a un control de seguridad que no interactúa con nadie”, o cualquier otra cosa. Algunas han sido ajustadas y añadidas por el equipo, otras han sido obtenidas de forma independiente por el modelo, que Shrestha describió como “una especie de enfoque semisupervisado administrado”.
El beneficio de usar una IA para monitorear cien transmisiones de video a la vez es evidente, incluso si supusiera que dicha IA es solo, digamos, un 80% tan buena como un ser humano para detectar que algo malo sucede. Sin deficiencias como la distracción, la fatiga o solo tener dos ojos, una IA puede aplicar ese nivel de éxito sin límites de tiempo o número de alimentación, lo que significa que la probabilidad de éxito es bastante alta.
Pero se podría haber dicho lo mismo de un sistema proto-IA de hace unos años que solo buscaba armas. Ambient.ai apunta a algo más completo.
“Construimos la plataforma en torno a la idea de privacidad por diseño”, dijo Shrestha. Con la seguridad impulsada por IA, “las personas simplemente asumen que el reconocimiento facial es parte de ella, pero con nuestro enfoque tiene esta gran cantidad de eventos de firma y puede tener un indicador de riesgo sin tener que hacer reconocimiento facial. No solo tiene una imagen y un modelo que dice lo que está sucediendo, tenemos todos estos bloques diferentes que le permiten ser más descriptivo en el sistema”.
Esencialmente, esto se hace manteniendo cada actividad individual reconocida libre de sesgos para empezar. Por ejemplo, si alguien está sentado o de pie, o cuánto tiempo ha estado esperando afuera de una puerta: si cada uno de estos comportamientos puede auditarse y detectarse en todos los grupos y grupos demográficos, entonces la suma de tales inferencias también debe ser libre. de sesgo De esta forma, el sistema reduce estructuralmente el sesgo.
Sin embargo, debe decirse que el sesgo es insidioso y complejo, y nuestra capacidad para reconocerlo y mitigarlo va a la zaga del estado del arte. Sin embargo, parece intuitivamente cierto que, como dijo Shrestha, “si no tienes una categoría de inferencia para algo que puede estar sesgado, no hay forma de que el sesgo llegue de esa manera”. ¡Ojala!
Los cofundadores de Ambient.ai, Vikesh Khanna (CTO, izquierda) y Shikhar Shrestha (CEO). Créditos de imagen: Ambiente.ai
Hemos visto algunas nuevas empresas ir y venir en este sentido, por lo que es importante que estas ideas se demuestren en el registro. Y a pesar de mantenerse relativamente callado sobre sí mismo, Ambient.ai tiene una cantidad de clientes activos que han ayudado a probar la hipótesis de su producto. Por supuesto, los últimos dos años no han sido exactamente como de costumbre… pero es difícil imaginar que “cinco de las empresas tecnológicas más grandes de EE. UU. por capitalización de mercado” serían clientes (y lo son) si no funcionara.
Una prueba en una “Empresa de tecnología Fortune 500” sin nombre buscaba reducir el “seguimiento de rueda”, donde alguien ingresa a un área segura justo detrás de otra persona autorizada para hacerlo. Si crees que nadie hace esto, bueno, identificaron 2000 incidentes la primera semana. Pero al enviar archivos GIF de los eventos casi en tiempo real a seguridad, quienes presumiblemente fueron y señalaron con el dedo a los infractores, ese número se redujo a 200 por semana. Ahora son 10 a la semana, probablemente por gente como yo.
Créditos de imagen: Ambiente.ai
En otro caso de prueba documentado por Ambient.ai, las cámaras de seguridad de una escuela captaron a alguien escalando la cerca después de horas. El jefe de seguridad recibió las imágenes de inmediato y llamó a la policía. Resulta que el tipo tenía antecedentes. El punto que tomo aquí no es que necesitamos cerrar los campus de nuestras escuelas, y esto ayudará a hacerlo, sino algo más mencionado en el documento, que es que el sistema puede combinar el conocimiento de “alguien está trepando una cerca” con otras cosas, como “esto sucede mucho antes de las 8:45”, para que los niños que toman un atajo no llamen a la policía. Y la IA también podía discernir entre escalar, caer y holgazanear, lo que en diferentes circunstancias podría importar o no.
Ambient.ai afirma que parte de la flexibilidad del sistema radica en que todos estos “primitivos” son fáciles de reorganizar según las necesidades del sitio; tal vez realmente no le importe si alguien trepa una cerca, a menos que se caiga, además de ser capaz de aprender nuevas situaciones: “Ah, así es como se ve cuando alguien está cortando una cerca”. El equipo tiene actualmente alrededor de 100 “firmas” de comportamiento sospechoso y espera duplicar eso durante el próximo año.
Hacer que el personal de seguridad existente sea más efectivo al darles más control sobre lo que explota su teléfono o radio ahorra tiempo y mejora los resultados (Ambient.ai dice que reduce la cantidad de alarmas comunes en general en un 85-90%). Y la categorización de metraje impulsada por IA también ayuda con registros y archivos. Decir “descargar todas las imágenes de personas trepando una cerca por la noche” es mucho más fácil que revisar 5000 horas manualmente.
La ronda de $ 52 millones fue liderada por a16z, pero también hay un poco de quién es quién en la pila de inversores individuales: Ron Conway, Ali Rowghani de Y Combinator, el cofundador de Okta, Frederic Kerrest, el director ejecutivo de CrowdStrike, George Kurtz, el vicepresidente ejecutivo de Microsoft, Charles Dietrich. , y varios otros que saben en qué invierten.
“Es un momento único; Se espera que los profesionales de la seguridad hagan mucho más. La propuesta básica de no tener que tener a alguien viendo todas estas transmisiones es universal”, dijo Shrestha. “Gastamos tanto dinero en seguridad, $120 mil millones… es una locura que los resultados no estén allí, no prevenimos incidentes. Se siente como si todos los caminos estuvieran conduciendo a la convergencia. Queremos ser una plataforma que una organización pueda adoptar y preparar su seguridad para el futuro”.
Source link