El aprendizaje automático puede proporcionar a las empresas una ventaja competitiva mediante el uso de los datos que recopilan (por ejemplo, patrones de compra) para generar predicciones que impulsan productos que generan ingresos (por ejemplo, recomendaciones de comercio electrónico). Pero es difícil para cualquier empleado mantenerse al día, y mucho menos administrar, los volúmenes masivos de datos que se crean. Eso plantea un problema, dado que los sistemas de IA tienden a ofrecer predicciones superiores cuando reciben datos actualizados al minuto. Los sistemas que no se vuelven a capacitar regularmente con nuevos datos corren el riesgo de volverse “obsoletos” y menos precisos con el tiempo.
Afortunadamente, un conjunto emergente de prácticas denominado “MLOps” promete simplificar el proceso de alimentación de datos a los sistemas mediante la abstracción de las complejidades. Uno de sus defensores es Mike Del Balso, director general de Tectón. Del Balso cofundó Tecton mientras estaba en Uber cuando la empresa luchaba por construir e implementar nuevos modelos de aprendizaje automático.
“Los modelos que cuentan con características en tiempo real altamente refinadas pueden ofrecer predicciones mucho más precisas. Pero construir canalizaciones de datos para generar estas funciones es difícil, requiere una gran cantidad de mano de obra de ingeniería de datos y puede agregar semanas o meses a los tiempos de entrega del proyecto”, dijo Del Balso a TechCrunch en una entrevista por correo electrónico.
Del Balso, quien anteriormente dirigió equipos de aprendizaje automático de anuncios de búsqueda en Google, co-lanzó Tecton en 2019 con Jeremy Hermann y Kevin Stumpf, dos ex colegas de Uber. Mientras estuvo en Uber, el trío había creado Michelangelo, una plataforma de IA que Uber usaba internamente para generar pronósticos de mercado, calcular ETA y automatizar la detección de fraude, entre otros casos de uso.
El éxito de Miguel Ángel inspiró a Del Balso, Hermann y Stumpf a crear una versión comercial de la tecnología, que se convirtió en Tecton. Los inversores siguieron su ejemplo. Por ejemplo, Tecton anunció hoy que recaudó $ 100 millones en una ronda de la Serie C que eleva el total recaudado de la compañía a $ 160 millones. El tramo fue dirigido por Kleiner Perkins, con la participación de Databricks, Snowflake, Andreessen Horowitz, Sequoia Capital, Bain Capital Ventures y Tiger Global. Del Balso dice que se usará para escalar los equipos de ingeniería y comercialización de Tecton.
“Esperamos que el software que usamos hoy sea altamente personalizado e inteligente”, dijo Bucky Moore, socio de Kleiner Perkins, en un comunicado proporcionado a TechCrunch. “Si bien el aprendizaje automático hace que esto sea posible, sigue lejos de la realidad, ya que la infraestructura habilitadora es prohibitivamente difícil de construir para todas las empresas, excepto para las más avanzadas. Tecton hace que esta infraestructura sea accesible para cualquier equipo, lo que les permite crear aplicaciones de aprendizaje automático más rápido”.
Tablero de monitoreo de Tecton. Créditos de imagen: Tectón
En un alto nivel, Tecton automatiza el proceso de creación de funciones utilizando fuentes de datos en tiempo real. Las “características”, en el aprendizaje automático, son variables independientes individuales que actúan como una entrada en un sistema de IA. Los sistemas usan características para hacer sus predicciones.
“[Automation,] permite a las empresas implementar modelos de aprendizaje automático en tiempo real mucho más rápido con menos esfuerzo de ingeniería de datos”, dijo Del Balso. “También permite a las empresas generar predicciones más precisas. Esto, a su vez, puede traducirse directamente en el resultado final, por ejemplo, aumentando las tasas de detección de fraude o brindando mejores recomendaciones de productos”.
Además de orquestar canalizaciones de datos, Tecton puede almacenar valores de características en entornos de implementación y capacitación de sistemas de IA. La plataforma también puede monitorear canalizaciones de datos, calcular la latencia y los costos de procesamiento, y recuperar características históricas para entrenar sistemas en producción.
Tecton también alberga una plataforma de tienda de funciones de código abierto, Feast, que no requiere una infraestructura dedicada. En cambio, Feast reutiliza el hardware existente en la nube o en las instalaciones, activando nuevos recursos cuando es necesario.
“Los casos de uso típicos de Tecton son aplicaciones de aprendizaje automático que se benefician de la inferencia en tiempo real. Algunos ejemplos incluyen detección de fraude, sistemas de recomendación, búsqueda, suscripción, personalización y fijación de precios en tiempo real”, dijo Del Balso. “Muchos de estos modelos de aprendizaje automático funcionan mucho mejor cuando se hacen predicciones en tiempo real, utilizando datos en tiempo real. Por ejemplo, los modelos de detección de fraude son significativamente más precisos cuando se utilizan datos sobre el comportamiento de un usuario de solo unos segundos antes, como el número, el tamaño y la ubicación geográfica de las transacciones”.
De acuerdo a Cognilítica, el mercado global de plataformas MLOps tendrá un valor de $ 4 mil millones para 2025, frente a $ 350 millones en 2019. Tecton no es la única empresa emergente que lo persigue. Los rivales incluyen Comet, Weights & Biases, Iterative, InfuseAI, Arrikto y Continual, por nombrar algunos. En el frente de la tienda de características, Tecton compite con rasgo y Moléculaasí como marcas más establecidas como Splice, Google y AWS.
Del Balso señala algunos puntos a favor de Tecton, como asociaciones estratégicas e integraciones con Databricks, Snowflake y Redis. Tecton tiene cientos de usuarios activos, no hay información sobre los clientes, aparte del hecho de que la base se quintuplicó durante el año pasado, y Del Balso dijo que los márgenes brutos (ventas netas menos el costo de los bienes vendidos) superan el 80%. Los ingresos recurrentes anuales aparentemente se triplicaron de 2021 a 2022, pero Del Balso se negó a proporcionar números firmes.
“Todavía estamos en las primeras entradas de MLOps. Esta es una transición difícil para las empresas. Sus equipos de científicos de datos tienen que comportarse más como ingenieros de datos y comenzar a crear código de calidad de producción. Necesitan un conjunto completo de herramientas nuevas para respaldar esta transición, y necesitan integrar estas herramientas en plataformas coherentes de aprendizaje automático. El ecosistema de herramientas MLOps aún está muy fragmentado, lo que dificulta que las empresas construyan estas plataformas de aprendizaje automático”, dijo Del Balso. “La pandemia aceleró la transición a las experiencias digitales y, con ello, la importancia de implementar ML operativo para potenciar estas experiencias. Creemos que la pandemia fue un acelerador para la adopción de nuevas herramientas de MLOps, incluidas las tiendas de funciones y las plataformas de funciones”.
Tecton, con sede en San Francisco, tiene actualmente 80 empleados. La compañía planea contratar a unos 20 en los próximos seis meses.
Source link