Cuando piensas en asistentes de voz como Alexa de Amazon y Siri de Apple, las palabras “emocional” y “expresivo” probablemente no se te ocurran. En cambio, está esa voz reconociblemente plana y educada, sin ningún tipo de afecto, lo cual está bien para un asistente, pero no funcionará si quieres usar voces sintéticas en juegos, películas y otros medios de narración.
Es por eso que una startup llamada Sonantic está tratando de crear IA que pueda llorar de manera convincente y transmitir una “emoción humana profunda”. La startup con sede en el Reino Unido anunció el mes pasado que ha recaudado € 2,3 millones en fondos liderados por EQT Ventures, y hoy está lanzando un video que muestra de lo que es capaz su tecnología.
Puedes juzgar los resultados por ti mismo en el siguiente video; Sonantic dice que todas las voces fueron creadas por su tecnología. Personalmente, no estoy seguro de decir que las actuaciones eran intercambiables con un talentoso actor de voz humana, pero ciertamente son más impresionantes que cualquier cosa sintética que haya escuchado antes.
El producto real de Sonantic es un editor de audio que ya está probando con los creadores de juegos. El editor incluye una variedad de diferentes modelos de voz, y la cofundadora y directora ejecutiva Zeena Qureshi dijo que esos modelos se basan y se desarrollan con actores de voz reales, que luego pueden compartir las ganancias.
“Nos adentramos en los detalles de la voz, los matices de la respiración”, dijo Qureshi. “Esa voz en sí misma necesita contar una historia”.
El cofundador y CTO John Flynn agregó que los estudios de juegos son un punto de partida obvio, ya que a menudo necesitan grabar decenas de miles de líneas de diálogo. Esto podría permitirles iterar más rápidamente, dijo, para alterar las voces por diferentes circunstancias en el juego (como cuando un personaje está corriendo y debería sonar como si estuvieran sin aliento) y evitar la tensión de la voz cuando se supone que los personajes deben hacer cosas como llorar o gritar.
Al mismo tiempo, Flynn proviene del mundo de la postproducción de películas y sugirió que la tecnología se aplica a muchas industrias más allá de los juegos. El objetivo no es reemplazar a los actores, sino explorar nuevos tipos de oportunidades para contar historias.
“Mira cuánta tecnología CGI ha apoyado las películas de acción en vivo”, dijo. “No es una o la otra. Una nueva tecnología le permite contar nuevas historias de una manera fantástica “.
Sonantic también me puso en contacto con Arabella Day, uno de los actores que ayudó a desarrollar los modelos de voz iniciales. Day recordó pasar horas grabando diferentes líneas, y finalmente recibió una llamada telefónica de Flynn, quien procedió a reproducirle una versión sintetizada de su propia voz.
“Le dije:‘ ¿Soy yo? ¿Grabé eso? “, Recordó.
Describió el trabajo con Sonantic como “una verdadera asociación”, en la que proporciona nuevas grabaciones y comentarios para mejorar continuamente el modelo (aparentemente su último trabajo involucra acentos estadounidenses). Dijo que la compañía quería que ella se sintiera cómoda con la forma en que podría usarse su voz, incluso preguntándole si había alguna compañía que quisiera incluir en la lista negra.
“Como actor, no estoy pensando en absoluto que el futuro de la actuación sea la IA”, dijo Day. “Espero que este sea un componente de lo que estoy haciendo, una ventaja adicional posible que tengo”.
Al mismo tiempo, dijo que existen preocupaciones “legítimas” en muchos campos sobre la IA que reemplaza a los trabajadores humanos.
“Si va a ser el futuro del entretenimiento, quiero ser parte de él”, dijo. “Pero quiero ser parte de esto y trabajar con él”.
Source link