Roboflow, una startup que tiene como objetivo simplificar el proceso de construcción de modelos de visión por computadora, anunció hoy que ha recaudado una ronda inicial de $ 2.1 millones codirigida por Lachy Groom y Craft Ventures. Los inversores adicionales incluyen al cofundador de Segment, Calvin French-Owen, al CEO de Lob, Leore Avidar, al cofundador de Firebase James Tamplin y al ingeniero de Dropbox Aston Motes, entre otros. La compañía se graduó de la clase de verano Y Combinator de este año.
Co-fundado por Joseph Nelson (CEO) y Brad Dwyer (CTO), Roboflow es el resultado del trabajo previo de los miembros del equipo en aplicaciones de AR e AI, incluido Magic Sudoku de 2017. Después de salir respectivamente de sus últimas compañías, los dos co- los fundadores se unieron nuevamente para lanzar un nuevo proyecto de AR, esta vez con un enfoque en los juegos de mesa. En 2019, el equipo participó en el hackathon de TC Disrupt para agregar soporte de ajedrez a esa aplicación, pero en el proceso, el equipo también se dio cuenta de que pasaba mucho tiempo tratando de resolver los mismos problemas que todos los demás en la visión por computadora. campo estaba enfrentando.
“Al construir ambos [AR] productos, nos dimos cuenta de que la mayor parte de nuestro tiempo no se gastaba en la parte del juego de mesa, sino en la gestión de imágenes, la gestión de anotaciones, la comprensión de ‘¿tenemos suficientes imágenes de reinas blancas, por ejemplo? ¿Tenemos suficientes imágenes desde este ángulo o desde este ángulo? ¿Son las habitaciones más claras o más oscuras? Esta minería de datos de comprensión en imágenes visuales está realmente poco desarrollada. En ese momento, habíamos construido un montón de herramientas internas para facilitarnos esto ”, explicó Nelson. “Y en el proceso de construcción de esta empresa, de intentar crear funciones de software para objetos del mundo real, darse cuenta de que los desarrolladores no necesitaban inspiración. Necesitaban herramientas “.
Así que poco después de participar en el hackathon, los fundadores comenzaron a armar la primera versión de Roboflow y lanzaron la primera versión hace un año en enero de 2020. Y aunque el servicio comenzó como una plataforma para administrar grandes conjuntos de datos de imágenes, desde entonces ha crecido para convertirse en una solución integral para el manejo de la gestión, el análisis, el preprocesamiento y el aumento de imágenes, hasta construir los modelos de reconocimiento de imágenes y ponerlos en producción. Como señaló Nelson, si bien el equipo no se propuso construir una solución de extremo a extremo, sus usuarios siguieron presionando al equipo para que agregara más funciones.
Hasta ahora, unos 20.000 desarrolladores han utilizado el servicio, con casos de uso que van desde acelerar la investigación del cáncer hasta aplicaciones de ciudades inteligentes. La tesis aquí, dijo Nelson, es que la visión por computadora será útil para todas las industrias. Pero no todas las empresas tienen la experiencia interna para configurar la infraestructura para construir modelos y ponerla en producción, por lo que Roboflow tiene como objetivo proporcionar una plataforma fácil de usar para esto que los desarrolladores individuales y (con el tiempo) los equipos de grandes empresas pueden usar para iterar rápidamente sobre sus ideas.
Roboflow planea usar la nueva financiación para expandir su equipo, que actualmente consta de cinco miembros, tanto en el lado de la ingeniería como en el mercado.
“A medida que las cámaras pequeñas se vuelven cada vez más baratas, estamos comenzando a ver una explosión de datos de video e imágenes en todas partes”, señaló el cofundador de Segment e inversionista de Roboflow French-Owen. “Históricamente, ha sido difícil para cualquiera, excepto para las empresas de tecnología más grandes, aprovechar estos datos y convertirlos en un producto valioso. Roboflow está construyendo las tuberías para el resto de nosotros. Ayudan a los ingenieros a tomar los datos que dicen mil palabras y les dan el poder de convertir esos datos en recomendaciones y conocimientos “.
Source link