- Cerebras Systems, una startup de Silicon Valley en modo sigiloso desde 2016, ha lanzado el chip de computadora funcional más grande del mundo.
- Con 56 veces el tamaño del próximo chip más grande, la compañía dice que la potencia de cómputo de su chip permitirá soluciones de inteligencia artificial a una velocidad exponencialmente más rápida.
- El chip tiene una estructura redundante, lo que significa que las imperfecciones esperadas en la fabricación del chip serán insignificantes.
La óptica del diseño y fabricación de chips de computadora es fundamental para cualquier dispositivo en el que esté leyendo este artículo, pero los chips nunca se han considerado realmente sexy. El mayor amor que han recibido está en el nombre de Silicon Valley, que se refiere al silicio, el material semiconductor dentro de los chips.
Por otra parte, un chip de computadora nunca ha sido funcionalmente viable y del tamaño de un iPad nuevo, hasta ahora.
En un teléfono inteligente, un chip suele ser del tamaño de su uña en un teléfono inteligente o, en el lado más grande de la escala, del tamaño de un sello postal. Pero Cerebas Systems, una startup con sede en Los Altos, California que ha estado en modo sigiloso desde 2016, acaba de lanzar el chip de computadora más grande del mundo.
¿Que tan grande? Pruebe 8.5 pulgadas en cada lado y 1.2 trillón transistores en el interior, todos trabajando duro para permitir que su computadora complete tareas complejas. Un chip de computadora típico, por el contrario, simplemente tiene millones (u ocasionalmente miles de millones) de transistores que cambian entre estados binarios de 0 y 1, el lenguaje de las computadoras.
Entonces, ¿Qué significa eso para ti? Andrew Feldman, CEO y cofundador de Cerebras Systems, cuenta Mecánica Popular que la tasa de investigación y desarrollo en el espacio de inteligencia artificial se acelerará inmensamente. Si bien la IA ya potencia muchos aspectos de nuestras vidas, para la abuela de Feldman, dice, todo se reduce a pedirle a Alexa que toque las canciones de Frank Sinatra, todo el potencial se ha visto obstaculizado por un hardware demasiado lento.
"El chip es una solución similar a la IA como una minivan es una solución para tener tres hijos", dice Feldman. "Lo que vimos fueron características del mundo de la IA. Y lo que el software quería que hiciera el hardware era muy difícil".
Los primeros fracasos y fracasos del Big Chip
Gene Amdahl, arquitecto informático estadounidense y emprendedor de alta tecnología, hacia 1987.
Dick Barnattimágenes falsas
Históricamente, ha habido grandes obstáculos para producir chips de computadora gigantescos como el que Feldman y su equipo de más de 200 están diseñando, fabricando y, sí, vendiendo.
Reconocidos informáticos ya lo intentaron en la década de 1980. "Algunas de las personas de ingeniería más famosas lo intentaron y fracasaron espectacularmente", dice Feldman.
Tomemos como ejemplo Trilogy Systems, una compañía de computadoras fundada en 1980. Dirigidos por Gene Amdahl, su hijo Carl Amdahl y Clifford Madden, el equipo quería crear una técnica de fabricación de semiconductores súper avanzada.
En ese momento, el viejo Amdahl estaba lleno de efectivo de su exitosa compañía, Amdahl Corporation. La firma recaudó rápidamente $ 230 millones para la nueva empresa, convirtiéndola en la empresa de inicio mejor financiada en Silicon Valley hasta ese momento.
El plan era crear una técnica de fabricación de semiconductores sin precedentes para ayudar a construir una computadora central compatible con IBM que fuera más barata y poderosa que los sistemas existentes (en consecuencia, un objetivo similar al que Feldman imagina).
A la trilogía se le ocurrió una idea que incluía la integración de la escala de la oblea, un sistema raramente utilizado para construir redes de circuitos integrados que usan una oblea de silicio completa para producir un solo superchip. El equipo quería producir un chip de computadora de 2.5 pulgadas en cada lado (en ese momento, solo los chips de aproximadamente 1/4 de pulgada por lado podían fabricarse de manera confiable a escala).
Por desgracia, la planta de fabricación de semiconductores de la compañía sufrió daños durante la construcción por una tormenta invernal; el diseño del chip no fue suficiente para rendimientos de fabricación razonables; y la tecnología de interconexión del chip no podía fabricarse de manera confiable, ya que las capas tendían a deslaminarse, y en ese momento no había una forma automatizada de reparar los errores de soldadura.
La moral se desplomaba en 1984 cuando Los New York Times cubrió la confusión interna de Trilogy y las dificultades técnicas. El más joven Amdahl dejó la compañía en junio de 1984. A continuación se cuenta su historia en Trilogy:
"No es que hayamos cometido errores, es solo que no sabíamos lo suficiente sobre los problemas a los que nos enfrentaríamos", dijo en una entrevista telefónica reciente. "Se volvió tan complicado que podrías poner a las personas más inteligentes del mundo". en el proyecto y te darían un presentimiento más que un hecho. Simplemente no había una apreciación de lo difícil que iba a ser ", agregó." Me despertaba en medio de la noche con sudores fríos. , pensando en lo que estábamos haciendo mal. Todo lo que estaba soñando era el diseño de la computadora y cómo encajan las piezas. Soñaría diagramas esquemáticos de la máquina ''.
A mediados de 1984, la empresa dijo que era demasiado difícil fabricar su diseño de computadora. Gene Amdahl renunció como CEO. Antes de la burbuja de las puntocom y estalló en 2001, Trilogy era conocido como uno de los mayores fracasos financieros en la historia de Silicon Valley.
Feldman, por supuesto, está buscando tomar un camino diferente y, con suerte, más exitoso.
"Nos dimos cuenta de que teníamos la oportunidad de resolver el problema de manera muy diferente a la que (ellos) habían intentado y creado una oportunidad real para nosotros", dijo.
El proceso de diseño de masa de galletas
Todo el diseño de chips se reduce prácticamente al mismo proceso llamado fotolitografía. Así es como funciona: hay un equipo que fabrica chips y los imprime con obleas circulares de silicio puro. Por lo general, eso significa colocar una cuadrícula de tantas fichas como sea posible en la oblea y luego cortar la oblea para crear fichas separadas.
Así es como se graban los transistores en la superficie de la oblea de silicio. Pero Cerebras usa toda la oblea para sus chips, en lugar de cortar y cortar los chips del silicio.
Usemos una analogía de cookies, porque tenemos hambre. El equipo que fabrica los chips los imprime como una oblea, o "como una gran masa de galletas", dice Feldman. Luego, las fichas se perforan. ¿Pero sabes que la masa sobrante entre los recortes, que puedes juntar para obtener tres o cuatro galletas más? Bueno, Feldman llevó esa idea al chip.
"Decidimos, vaca sagrada, podemos usar el todo ", dice. El equipo encontraría la forma de utilizar la mayor cantidad de obleas posible.
Con todo, tomó aproximadamente 3.5 años para finalmente perfeccionar el sistema. Por lo tanto, es bueno que la compañía tuviera al menos $ 112 millones en fondos de capital de riesgo para jugar.
La loca demanda de AI Computing
El aprendizaje profundo, un tipo de inteligencia artificial que enseña a las computadoras cómo hacer lo que los humanos pueden naturalmente, aprender con el ejemplo, debe alimentarse con un gran conjunto de datos etiquetados y arquitecturas de redes neuronales para entrenar el sistema.
Entonces sí, es profundamente computacionalmente intensivo.
Un informe reciente de OpenAI, un centro de investigación de inteligencia artificial con sede en San Francisco, mostró que entre 2012 y 2018, la potencia informática utilizada para entrenar los modelos más grandes aumentó en 300,000 veces.
En resumen, la demanda de computación de IA se duplica cada 3,5 meses, según un documento técnico de Cerebras.
Hasta ahora, la GPU (sistema de procesamiento de gráficos) se ha convertido en el chip principal para el trabajo de IA. Es el mismo tipo de chip que ejecuta su PlayStation o Xbox, sin mencionar estas redes neuronales computacionalmente intensivas. Pero ya no es lo suficientemente poderoso, dice Feldman.
Las GPU están formadas por muchos pequeños núcleos de comunicación que realizan pequeños cálculos que se comunican entre sí, explica. "Al ponerlos en chips separados, la industria ha hecho que la comunicación sea muy costosa. Lleva mucho tiempo, es lento, consume mucha energía".
Pero, ¿qué pasa si pones todos estos núcleos de comunicación en un chip, en lugar de cientos o miles? Todo en la misma tira de silicio?
"La gran limitación en la inteligencia artificial es que lleva semanas o meses probar una sola idea", dice Feldman, debido al hardware que es demasiado lento para el software. "¿Qué pasaría si, en ese mes, pudieras probar 1,000 ideas? "
Cerebras afirma que su chip contiene 400,000 pequeños núcleos optimizados para IA, que permiten que el chip contenga una red neuronal completa, en lugar de distribuir los datos a través de múltiples GPU, usando un montón de cables de conexión en una maraña gigante.
Con todo, este sistema ocupa menos energía y menos espacio si está dispuesto a pagar la inversión inicial. Feldman no reveló el costo del sistema Cerebras, pero dice que el objetivo es salvar a los clientes de lo que pagarían con su configuración actual.
Feldman dice que sistemas completos de centros de datos en gobiernos, instituciones financieras y más, sus clientes ideales, podrían configurar este nuevo sistema en aproximadamente una hora, sin afectar cualquier cosa en el lado del software.
"Es la complejidad de los datos, más las características de esa complejidad", dice. “A veces puede ser difícil mover una gran roca, otras veces puede ser difícil mover una gran cantidad de pequeñas piedras. Tienen diferentes caracteristicas. AI requiere un nuevo tipo de camión para moverlo, y ese es el nuevo tipo de computación ".
Los desafíos técnicos del chip
Esa pequeña pizca de masa extra después de cortar las galletas es análoga a lo que queda al cortar las virutas de silicio. El desafío: ¿cómo se crea una cookie gigante, en lugar de 100 pequeñas cookies con espacio perdido en el medio? Nunca se había hecho efectivamente, dice Feldman.
Por supuesto, la fabricación tiene sus defectos. Cuando las obleas de silicio se cortan en trozos pequeños para crear chips, siempre hay algunas que resultan imperfectas.
"Cuanto más grande es el chip, más probable es que cueste más" si tienes que tirar uno, dice Feldman. "Inventamos una técnica para resistir fallas en lugar de requerir obleas impecables".
Imagina que tienes un tablero de tres en raya, pero en lugar de ser cuadrados de 3 por 3, es 600 por 600. Eso hace alrededor de 360,000 cuadrados totales. Ahora imagine que tomó una fila adicional en la parte superior y una fila adicional en el costado y la agregó a su tablero.
"Si hubo una falla en el medio, usaste el repuesto de estas filas adicionales que acabas de agregar" para asegurarte de que el chip gigante todavía sea utilizable, dice Feldman. Él llama a esto el "esquema de redundancia".
El objetivo final de Feldman es aumentar la velocidad de productividad en el espacio de IA para que podamos cambiar drásticamente nuestras vidas. Tendremos flotas de automóviles autónomos antes, podremos emplear aplicaciones de comunicación inalámbrica 5G con facilidad y las ciudades inteligentes prosperarán.
Pero para que eso suceda, ese poder informático masivo que se avecina en el fondo y se ocupa de su propio negocio debe ser el tipo más importante en la sala.
"En un mundo nuevo donde todo tiene que funcionar en conjunto … cuanto más rápida sea la comunicación, más rápida será la innovación", dice Feldman.
Source link