El espacio de hardware de IA al rojo vivo se pone aún más caliente con $56 millones para una startup llamada SambaNova Systems

El espacio de hardware de IA al rojo vivo se pone aún más caliente con $56 millones para una startup llamada SambaNova Systems

by

in

Hoy llega otra ronda de financiación masiva para una empresa de chips de IA, esta vez para SambaNova Systems, una startup fundada por un par de profesores de Stanford y un ejecutivo de una empresa de chips desde hace mucho tiempo, para construir la próxima generación de hardware para potenciar las operaciones centradas en la IA. .

SambaNova se une a una clase bastante grande de nuevas empresas que buscan atacar el problema de hacer que las operaciones de IA sean mucho más eficientes y rápidas al repensar el sustrato real donde ocurren los cálculos. La GPU se ha vuelto cada vez más popular entre los desarrolladores por su capacidad para manejar los tipos de matemáticas livianas de manera muy rápida, necesarias para las operaciones de IA. Las empresas emergentes como SambaNova buscan crear una nueva plataforma desde cero, hasta el hardware, que esté optimizado exactamente para esas operaciones. La esperanza es que al hacerlo, podrá superar a una GPU en términos de velocidad, uso de energía e incluso, potencialmente, el tamaño real del chip. SambaNova dijo hoy que ha recaudado una enorme serie de $56 millones. Una ronda de financiamiento fue codirigida por GV y Walden International, con la participación de Redline Capital y Atlantic Bridge Ventures.

SambaNova es el producto de la tecnología de Kunle Olukotun y Chris Ré, dos profesores de Stanford, y dirigido por el ex vicepresidente sénior de desarrollo de Oracle, Rodrigo Liang, quien también fue vicepresidente de Sun durante casi 8 años. Al mirar el panorama, el equipo de SambaNova buscó trabajar hacia atrás, primero identificando qué operaciones deben realizarse de manera más eficiente y luego descubriendo qué tipo de hardware debe estar en su lugar para que eso suceda. Eso se reduce a una gran cantidad de cálculos derivados de un campo de las matemáticas llamado álgebra lineal que se realizan muy, muy rápidamente, pero es algo para lo que las CPU existentes no están exactamente preparadas. Y una crítica común de la mayoría de los fundadores en este espacio es que las GPU de Nvidia, si bien son mucho más poderosas que las CPU en lo que respecta a estas operaciones, aún están listas para la disrupción.

“Tienes estos enormes [computational] demandas, pero tienes la ralentización de la ley de Moore”, dijo Olukotun. “La pregunta es, ¿cómo se cumplen estas demandas mientras la ley de Moore se ralentiza? Fundamentalmente, tienes que desarrollar una computación que sea más eficiente. Si observa los enfoques actuales para mejorar estas aplicaciones basadas en múltiples núcleos grandes o muchos pequeños, o incluso FPGA o GPU, fundamentalmente no creemos que pueda lograr la eficiencia que necesita. Necesita un enfoque que sea diferente en los algoritmos que usa y el hardware subyacente que también se requiere. Necesita una combinación de los dos para lograr los niveles de rendimiento y flexibilidad que necesita para seguir adelante”.

Si bien una ronda de financiación de $56 millones para una serie A puede parecer colosal, se está convirtiendo en un número bastante estándar para las nuevas empresas que buscan atacar este espacio, que tiene la oportunidad de vencer a los grandes fabricantes de chips y crear una nueva generación de hardware que será omnipresente entre cualquier dispositivo que se basa en la inteligencia artificial, ya sea un chip instalado en un vehículo autónomo que realiza un procesamiento rápido de imágenes o potencialmente incluso un servidor dentro de una organización de atención médica que entrena modelos para problemas médicos complejos. Graphcore, otra empresa emergente de chips, obtuvo $ 50 millones en fondos de Sequoia Capital, mientras que Cerebras Systems también recibió fondos significativos de Benchmark Capital. Sin embargo, en medio de esta ráfaga de actividad de inversión, todavía no se ha enviado nada realmente, y definiría a estas empresas que recaudan decenas de millones de dólares como premercado.

Olukotun y Liang no entraron en los detalles de la arquitectura, pero buscan rehacer el hardware operativo para optimizar los marcos centrados en la IA que se han vuelto cada vez más populares en campos como el reconocimiento de imágenes y voz. En esencia, eso implica repensar mucho cómo se produce la interacción con la memoria y qué sucede con la disipación de calor del hardware, entre otros problemas complejos. Apple, Google con su TPU y, según se informa, Amazon se han interesado mucho en este espacio para diseñar su propio hardware que está optimizado para productos como Siri o Alexa, lo cual tiene sentido porque reduce esa latencia lo más cerca posible de cero con la mayor precisión. posible al final mejora la experiencia del usuario. Una gran experiencia de usuario conduce a un mayor bloqueo para esas plataformas, y aunque los jugadores más grandes pueden terminar haciendo su propio hardware, Dave Munichiello de GV, quien se unirá al directorio de la compañía, dice que esto es básicamente una validación de que todos los demás van a necesita la tecnología lo suficientemente pronto.

“Las grandes empresas ven la necesidad de hardware e infraestructura especializados”, dijo. “La IA y el análisis de datos a gran escala son tan esenciales para brindar servicios que las empresas más grandes brindan que están dispuestas a invertir en su propia infraestructura, y eso nos indica que se avecinan más inversiones. Lo que Amazon y Google y Microsoft y Apple están haciendo hoy será en lo que el resto de los Fortune 100 estén invirtiendo en 5 años. Creo que simplemente crea un mercado realmente interesante y una oportunidad para vender un producto único. Simplemente significa que el mercado es realmente grande, si crees en la diferenciación técnica de tu empresa, le das la bienvenida a la competencia”.

Ciertamente habrá mucha competencia en esta área, y no solo de esas nuevas empresas. Si bien SambaNova quiere crear una verdadera plataforma, hay muchas interpretaciones diferentes de dónde debería ir, como si deberían ser dos piezas de hardware separadas que manejen la inferencia o el entrenamiento de la máquina. Intel también está apostando por una variedad de productos, así como por una tecnología llamada Field Programmable Gate Arrays (o FPGA), que permitiría un enfoque más modular en la construcción de hardware específico para IA y está diseñado para ser flexible y cambiar. tiempo. Tanto el argumento de Munichiello como el de Olukotun son que estos requieren desarrolladores que tengan una experiencia especial en FPGA, que es una especie de nicho dentro de un nicho que la mayoría de las organizaciones probablemente no tendrán fácilmente disponible.

Nvidia ha sido un gran benefactor en la explosión de los sistemas de IA, pero claramente expuso mucho interés en invertir en una nueva generación de silicio. Sin duda, hay un argumento para el bloqueo del desarrollador en las plataformas de Nvidia como Cuda. Pero hay muchos marcos nuevos, como TensorFlow, que están creando una capa de abstracción que es cada vez más popular entre los desarrolladores. Eso también representa una oportunidad tanto para SambaNova como para otras nuevas empresas, que pueden trabajar para conectarse a esos marcos populares, dijo Olukotun. El CEO de Cerebras Systems, Andrew Feldman, también abordó algo de esto en el escenario de la Conferencia de Tecnología e Internet de Goldman Sachs el mes pasado.

“Nvidia ha pasado mucho tiempo construyendo un ecosistema alrededor de sus GPU y, en su mayor parte, con la combinación de TensorFlow, Google ha eliminado la mayor parte de su valor”, dijo Feldman en la conferencia. “Lo que hace TensorFlow es, les dice a los investigadores y profesionales de IA, que no es necesario meterse en las entrañas del hardware. Puede escribir en las capas superiores y puede escribir en Python, puede usar scripts, no tiene que preocuparse por lo que sucede debajo. Luego, puede compilarlo de manera muy simple y directa en una CPU, TPU, GPU, en muchos hardwares diferentes, incluido el nuestro. Si para hacer ese trabajo, tiene que ser el tipo de ingeniero que puede hacer un ensamblaje ajustado a mano o puede vivir profundamente en las entrañas del hardware, no habrá adopción… Solo tomaremos su TensorFlow, no No tienes que preocuparte por nada más.

(Aparte, una vez me dijeron que Cuda y esas otras plataformas de nivel inferior son realmente utilizadas por expertos en inteligencia artificial como Yann LeCun que construyen cosas raras de inteligencia artificial en los rincones de Internet).

También hay dos grandes signos de interrogación para SambaNova: primero, es muy nuevo, ya que comenzó en noviembre, mientras que muchos de estos esfuerzos, tanto para empresas nuevas como para empresas más grandes, han llevado años en desarrollo. La respuesta de Munichiello a esto es que el desarrollo de esas tecnologías, de hecho, comenzó hace un tiempo, y eso no es algo terrible, ya que SambaNova recién comienza en la generación actual de necesidades de IA. Y el segundo, entre algunos en el valle, es que la mayoría de la industria podría no necesitar hardware que realice estas operaciones de una manera ultrarrápida. Se podría argumentar que esto último podría aliviarse por el hecho de que muchas de estas empresas están recibiendo tantos fondos, y algunas ya alcanzan valoraciones cercanas a los miles de millones de dólares.

Pero, al final, ahora puede agregar SambaNova a la lista de nuevas empresas de IA que han recaudado enormes rondas de financiación, una que se extiende para incluir una gran cantidad de empresas en todo el mundo como Graphcore y Cerebras Systems, así como una gran cantidad de reportó actividad fuera de China con compañías como Cambricon Technology y Horizon Robotics. Este esfuerzo, de hecho, requiere una inversión significativa no solo porque es hardware en su base, sino que también tiene que convencer a los clientes para que implementen ese hardware y comiencen a aprovechar las plataformas que crea, lo que con suerte alivia el soporte de los marcos existentes.

“El desafío que ves es que la industria, en los últimos diez años, no ha invertido lo suficiente en el diseño de semiconductores”, dijo Liang. “Si observa las innovaciones desde el inicio hasta las grandes empresas, realmente no hemos empujado los límites en el diseño de semiconductores. Era muy caro y los rendimientos no eran tan buenos. Aquí estamos, de repente tienes una necesidad de diseño de semiconductores, y hacer un diseño de bajo consumo requiere un conjunto de habilidades diferente. Si observa esta transición al software inteligente, es una de las transiciones más grandes que hemos visto en esta industria en mucho tiempo. No está acelerando software antiguo, quiere crear esa plataforma que sea lo suficientemente flexible [to optimize these operations] — y quieres pensar en todas las piezas. No se trata solo de aprendizaje automático”.


Source link