La Huella de Carbono de una IA es 5 veces más grande que la de un automóvil

La Huella de Carbono de una IA es 5 veces más grande que la de un automóvil

granja de servidores

Dean Mouhtaropoulos / Getty Imagesimágenes falsas

En cualquier número de industrias, desde el transporte hasta la medicina y la defensa, los defensores están pidiendo a la inteligencia artificial que desempeñe roles cada vez más importantes a medida que los campos miran hacia el futuro. Pero un nuevo estudio muestra que hay un lado sucio en la IA: el consumo de energía.

El acto de entrenar una red neuronal, según el estudio dirigido por Emma Strubell de la Universidad de Massachusetts Amherst, crea una huella de dióxido de carbono de 284 toneladas, cinco veces más que las emisiones de por vida de un automóvil promedio.

Las redes neuronales a veces se consideran los martillos de "fuerza bruta" del mundo de la IA, eficaces pero ineficientes. El estudio de Strubell examinó cuatro IA diferentes, todas involucradas en la comprensión de las palabras escritas: Transformer, ELMo, BERT y GPT-2. GPT-2, por ejemplo, está capacitado para predecir la siguiente palabra en 40 gigabytes de texto de Internet. Fue entrenado para procesar palabras de 8 millones de páginas web.

El equipo de Strubell midió cada AI por un día y tomó una muestra del consumo de energía en todo momento. Esa cifra se multiplicó por el tiempo que tomó entrenar a las IA, de acuerdo con sus constructores originales. A partir de ahí, la huella de carbono se basó en las emisiones de carbono promedio utilizadas en la producción de energía en Estados Unidos.

Los científicos identificaron un proceso conocido como Búsqueda de Arquitectura Neural (NAS) como el principal infractor. Usando prueba y error, NAS automatiza el diseño de una red neuronal. Conocido como uno de los "nuevos reyes del castillo de aprendizaje profundo", NAS se ve como una "manera rápida y sucia de obtener una gran precisión para su tarea de aprendizaje automático sin mucho trabajo".

Sin embargo, la formación del AI Transformer, que se centra en la traducción entre idiomas como el francés y el inglés, con NAS, requiere mucho más tiempo. Solo lleva 84 horas entrenar el Transformer sin NAS; Con el proceso, puede tomar más de 270,000 horas.

NAS está optimizado para tareas extremadamente específicas dentro del marco de AI, por ejemplo, traduciendo alemán o francés, lo que significa que gasta 3,000 veces la cantidad de energía.

El estudio de Strubell tiene límites, que se presentará en la reunión anual de la Asociación de lingüística computacional en Florencia, Italia, en julio. Compañías gigantes como Google y Amazon presentan la opción a los investigadores de pagar por plataformas basadas en la nube que se pueden usar para capacitar de forma remota a los AI. Comprender cómo Google y Amazon usan estas plataformas en la nube pintaría una imagen más completa.

Aún así, los datos son motivo de preocupación suficiente.

"Desde la perspectiva de la energía, y desde la perspectiva de la reducción de emisiones de carbono, deberíamos pensar en diseñar los servicios y asegurarnos de que los algoritmos sean lo más eficientes posible", dice Chris Priest, de la Universidad de Bristol, hablando con Científico nuevo.

Dada la grave advertencia presentada por el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), el mundo tiene solo 12 años para limitar el daño del calentamiento global, por lo que se deben examinar detenidamente las grandes huellas de carbono. Porque simplemente plantar más árboles probablemente no lo cortará.

Fuente: Científico nuevo


Source link