Amazon podría estar desarrollando chips de IA para Alexa

Amazon podría estar desarrollando chips de IA para Alexa

by

in

The Information tiene un informe esta mañana de que Amazon está trabajando en la construcción de chips de IA para el Echolo que permitiría a Alexa analizar la información más rápidamente y obtener esas respuestas.

Obtener esas respuestas mucho más rápido para el usuario, incluso por unos pocos segundos, puede parecer un movimiento que no es muy importante. Pero para Amazon, una empresa que se basa en capturar el interés de un usuario en el momento absolutamente crítico para ejecutar una venta, parece lo suficientemente importante reducir ese tiempo de respuesta lo más cerca posible de cero para cultivar el comportamiento que Amazon puede brindarle la respuesta. necesita inmediatamente, especialmente, en el futuro, si es un producto que es probable que compre. Amazon, Google y Apple están en el punto en que los usuarios esperan tecnología que funcione y funcione rápidamente, y probablemente no sean tan indulgentes como lo son con otras empresas que dependen de problemas como el reconocimiento de imágenes (como, por ejemplo, Pinterest).

Este tipo de hardware en el Echo probablemente estaría orientado a la inferencia, tomando información entrante (como el habla) y ejecutando una tonelada de cálculos muy, muy rápido para dar sentido a la información entrante. Algunos de estos problemas a menudo se basan en un problema bastante simple derivado de una rama de las matemáticas llamada álgebra lineal, pero requiere una gran cantidad de cálculos y una buena experiencia de usuario exige que se realicen muy rápidamente. La promesa de hacer chips personalizados que funcionen realmente bien para esto es que podría hacerlo más rápido y con menos consumo de energía, aunque hay muchos otros problemas que podrían surgir con eso. Hay un montón de nuevas empresas que experimentan con formas de hacer algo con esto, aunque no está del todo claro en qué termina el producto final (casi todo el mundo está en el mercado previo a este punto).

De hecho, esto tiene mucho sentido simplemente conectando los puntos de lo que ya existe. Apple ha diseñado su propia GPU para el cliente para el iPhone, y mover ese tipo de procesos de reconocimiento de voz directamente al teléfono lo ayudaría a analizar más rápidamente el habla entrante, suponiendo que los modelos sean buenos y estén sentados en el dispositivo. Las consultas complejas, el tipo de oraciones largas como el infierno que dirías en la aplicación Hound solo por diversión, definitivamente aún requerirían una conexión con la nube para recorrer todo el árbol de oraciones y determinar qué tipo de información realmente quiere la persona. . Pero incluso entonces, a medida que la tecnología mejore y se vuelva más robusta, esas consultas podrían ser incluso más rápidas y sencillas.

El informe de The Information también sugiere que Amazon podría estar trabajando en chips de IA para AWS, que estarían orientados al entrenamiento de máquinas. Si bien esto tiene sentido en teoría, no estoy 100 por ciento seguro de que este sea un movimiento que Amazon apoyaría con todo su peso. Mi instinto dice que la amplia gama de empresas que trabajan con AWS no necesitan ningún tipo de hardware de entrenamiento de máquinas de última generación, y estaría bien entrenar modelos varias veces a la semana o al mes y obtener los resultados que necesitan. Eso probablemente podría hacerse con una tarjeta Nvidia más barata, y no tendría que lidiar con la resolución de problemas que vienen con el hardware como la disipación de calor. Dicho esto, tiene sentido incursionar un poco en este espacio dado el interés de otras compañías, incluso si no sale nada.

Amazon se negó a comentar sobre la historia. Mientras tanto, esto parece algo a lo que hay que estar atento, ya que todo el mundo parece estar tratando de poseer la interfaz de voz para dispositivos inteligentes, ya sea en el hogar o, en el caso de los AirPods, tal vez incluso en su oído. Gracias a los avances en el reconocimiento de voz, la voz resultó ser una interfaz real para la tecnología en la forma en que la industria pensó que siempre podría ser. Solo nos tomó un tiempo llegar aquí.

Hay una cantidad bastante grande de empresas emergentes que experimentan en este espacio (según los estándares de las empresas emergentes) con la promesa de crear una nueva generación de hardware que pueda manejar los problemas de IA de manera más rápida y eficiente mientras consume potencialmente menos energía, o incluso menos espacio. Empresas como Graphcore y Cerebras Systems tienen su sede en todo el mundo, y algunas tienen valoraciones cercanas a los mil millones de dólares. Mucha gente en la industria se refiere a esta explosión como Compute 2.0, al menos si se desarrolla de la manera que los inversores esperan.


Source link