Cómo utiliza Nvidia la IA para crear GPU aún más rápidas y mejores

Cómo utiliza Nvidia la IA para crear GPU aún más rápidas y mejores

Nvidia está aprovechando las herramientas de IA en múltiples aspectos del desarrollo de chips para hacer que sus futuras GPU sean significativamente mejores que las de la generación actual.

El fabricante de chips de fama mundial, nvidia, utiliza sus potentes tarjetas gráficas para ayudar a sus ingenieros a diseñar la próxima generación de GPU. Nvidia se encuentra actualmente a la vanguardia de la fabricación de GPU y la inteligencia artificial. Nvidia DLSS y OptiX son dos de las tecnologías de inteligencia artificial populares que la empresa ha desarrollado recientemente. Además, la empresa siempre está en proceso de desarrollar aplicaciones que utilicen sus GPU de la mejor manera posible.

Actualmente, Nvidia domina la competencia en términos de participación de mercado discreta de GPU y juegos. Según Jon Peddie Research, Nvidia tiene el 81 por ciento de la cuota de mercado de dGPU. Además, según la encuesta de hardware para juegos de Steam, el 77,13 % de los jugadores de PC usan GPU Nvidia en la plataforma. Esta alta demanda de GPU Nvidia se disparó durante la pandemia debido a una combinación de problemas de cadena de suministro, reventa y criptominería. Como resultado, en 2021, las tarjetas Nvidia experimentaron un aumento del 300 por ciento en el precio de venta al público y, sin embargo, permanecieron agotadas la mayor parte del tiempo. Afortunadamente, los precios de las GPU Nvidia han comenzado a bajar en los últimos meses.

VÍDEO DEL DÍA

Nvidia fabrica algunas de las mejores GPU del mercado. Y ahora están llevando sus capacidades de diseño de chips a otro nivel al incorporar funciones de aprendizaje automático mediante el uso de sus propias GPU. Durante una conferencia de Nvidia GTC, el científico jefe de la compañía, Bill Dally, dijo: “Como experto en IA, es natural que queramos tomar esa IA y usarla para diseñar mejores chips.Entonces, para diseñar mejores GPU, el equipo de desarrollo de Nvidia está mejorando las herramientas de diseño habilitadas para computadora de generación actual con capacidades de IA. Lo está haciendo principalmente en cuatro áreas principales.

Las GPU de Nvidia funcionan de manera más eficiente que los humanos

La primera área involucra el mapeo de caídas de voltaje para determinar dónde se usa la energía en una GPU Nvidia. Dally explicó durante la presentación que ejecutarlo manualmente en CAD tomaría tres horas, pero con la ayuda de una configuración de GPU impulsada por IA, se puede lograr lo mismo en alrededor de 18 minutos. La segunda área consiste en probar parásitos para verificar cómo funcionaría un diseño de circuito, que es un proceso frecuente que maneja la IA. En la tercera área, una GPU impulsada por IA prueba diferentes diseños de los chips para determinar el formato de diseño menos congestionado. Y, por último, las GPU también se utilizan para crear nuevos diseños. La tecnología NVCell de Nvidia utiliza Reinforcement Learning para funcionar como un generador automático de diseño de celdas estándar. Dally explicó que cada vez que la tecnología evoluciona, como la transición del proceso de fabricación de nodos de 7nm a 5nm, miles de estas celdas deben rediseñarse utilizando “un conjunto muy complejo de reglas de diseño.” NVCell de Nvidia puede recrear el 92 por ciento de la biblioteca de celdas aparentemente sin errores.

Como referencia, sería necesario que un grupo de 10 personas trabajara durante más de un año para portar una nueva biblioteca de células de tecnología. Lo mismo se puede lograr con la ayuda de algunas potentes GPU Nvidia en cuestión de días, explicó Dally. Por supuesto, todavía se requiere la intervención humana en todas estas áreas, por muy futurista que suene. Sin embargo, las GPU Nvidia habilitadas para IA ayudan a la empresa a ahorrar mucho tiempo y a crear un chip mejor diseñado. Además de las GPU, nvidia pronto podría sumergirse también en el negocio de fabricación de CPU, pero esa es una historia para otro momento.

Fuente: Nvidia




Source link