Ava da el ejemplo para los subtítulos en vivo universales y recauda $ 10 millones para seguir construyendo

Ava da el ejemplo para los subtítulos en vivo universales y recauda $ 10 millones para seguir construyendo

La última vez que nos registramos con el servicio de subtítulos impulsado por IA Ava, acababan de generar una ronda semilla y habían pasado seis meses desde una pandemia que cambiaría la forma en que todos trabajamos juntos. 18 meses después, los inversores están llamando a su puerta después de un gran crecimiento, y su objetivo es seguir mostrando a la industria tecnológica cómo las personas sordas y con problemas de audición deben incluirse en el lugar de trabajo híbrido.

Las herramientas de la compañía proporcionan subtítulos instantáneos para cualquier voz que escuche el usuario, ya sea en una videollamada, en un video de Tiktok o con amigos. (Existen diferentes aplicaciones y capacidades para cada plataforma, naturalmente, pero todas funcionan juntas).

“En el último año y medio desde nuestra entrevista, hemos aumentado los ingresos y la base de clientes aproximadamente 10 veces, en gran parte a medida que nuestros productos de empoderamiento se lanzaron a los usuarios en busca de mejores soluciones”, dijo a TechCrunch el director ejecutivo de Ava, Thibault Duchemin.

Mejor es sin duda la palabra operativa allí, ya que hemos visto aparecer opciones de accesibilidad aquí y allá en las herramientas de productividad que usamos con frecuencia. Pero la verdad es que cosas como la transcripción automática de llamadas, tan útiles como son, representan solo el mínimo de inclusión, y las personas con problemas de audición o visión quedan casi completamente excluidas. (Y eso si hay opciones accesibles, lo que no ocurre en muchas plataformas en línea populares).

El enfoque de Ava es proporcionar una herramienta de subtítulos más rica y configurable de forma independiente que funcione en todo el contenido, desde podcasts hasta reuniones manuales y chats en persona, y de tal manera que la persona realmente pueda usarla.

¿Cuál es el punto de los subtítulos si no puedes saber quién está hablando? ¿Por qué escuchar si no puedes responder? ¿De quién es el trabajo de proporcionar transcripciones de contenido compartido en la red interna?

Ava al menos proporciona formas de avanzar en todas estas situaciones, y aunque gran parte de esta responsabilidad recae en la persona que usa la herramienta, sus capacidades significan que el lugar de trabajo puede adaptarse a ellos de manera más fluida. Duchemin señaló que la compañía tiene personas sordas y con problemas de audición en puestos de liderazgo en todo el equipo que aportan una experiencia práctica real al tema.

“Con la financiación, estamos duplicando el producto y la ingeniería, permitiendo nuevas experiencias que integren a Ava en las necesidades diarias de nuestros usuarios sordos y con problemas de audición, manteniendo nuestra firma en torno al autoempoderamiento y la accesibilidad. cierto”, dijo Duchemin.

La financiación, una ronda de $ 10MA, fue liderada por Khosla Ventures, que participó en la semilla pero llegó a Ava queriendo liderar esta. Duchemin también señaló a un nuevo inversor estratégico en Jim Sorenson, fundador de una empresa de telecomunicaciones para sordos y personas con problemas de audición, lo que insinuó la próxima integración de la industria móvil. Initialized Capital, Lerer Hippeau Ventures, LeFonds VC y Ring Capital participaron en la ronda.

Además de las mejoras esperadas en el lado del producto y la ingeniería, y algunas nuevas asociaciones que se avecinan, Duchemin dijo que están trabajando para “expandir masivamente” la red de “Scribes”, subtituladores humanos profesionales, para que el contenido se pueda transcribir. por un profesional casi al instante.

Créditos de imagen: Ava

Estas personas no son transcriptores completos, sino que trabajan con las herramientas de inteligencia artificial para corregir y mejorar el proceso en vivo. Si bien las transcripciones automáticas son muy útiles, no son lo suficientemente precisas para ser consideradas un resultado final, por ejemplo, para ser publicadas sin editar en un artículo como este. La transcripción humana es necesariamente más lenta y costosa, pero Ava cree que puede reducir la demora hasta el punto en que puede tener una transcripción casi perfecta al minuto de que algo suceda.

Por cierto, los asuntos de la sordera y ser hijo de adultos sordos recientemente ocuparon un lugar destacado cuando la película CODA se llevó a casa un par de premios Oscar por su descripción. Y Ava estaba en el set, siendo utilizada por el elenco y el equipo cuando los intérpretes no estaban presentes y el lenguaje de señas no era una opción.

“Esto fue inesperado, lo descubrimos mientras leíamos la función de Apple TV que promocionaba las aplicaciones en el set”, dijo Duchemin. “Creo que los usuarios sordos y con problemas de audición finalmente eligen las herramientas que les sirven y su entorno se beneficia de ellas. ¡Este es un círculo virtuoso!”.


Source link