Los modelos de lenguaje en los que se basan las IA generativas necesitan una capacidad de cálculo enorme para entrenarse utilizando miles de millones de datos
Foto: Especial | Los modelos de lenguaje en los que se basan las IA generativas necesitan una capacidad de cálculo enorme para entrenarse utilizando miles de millones de datos  

Los modelos de lenguaje en los que se basan las IA generativas necesitan una capacidad de cálculo enorme para entrenarse utilizando miles de millones de datos, lo que requiere servidores potentes.

Luego, cada vez que un usuario envía una consulta a ChatGPT o a cualquier otra IA generativa hace funcionar servidores situados en un centro de datos.

Estos servidores consumen electricidad, se calientan y es necesario refrigerarlos con sistemas que a su vez requieren energía.

Según la Agencia Internacional de la Energía (AIE), los centros de datos emplean generalmente alrededor del 40 % de su electricidad para alimentar los servidores y el 40 % para enfriarlos. Varios estudios señalan que una consulta a ChatGPT requiere de media 10 veces más energía que una simple consulta al motor de búsqueda de Google.

El auge de la IA desde 2022 llevó a gigantes de Internet, como Amazon, Google y Microsoft, a invertir masivamente en la creación de centros de datos en todo el mundo.

En su informe medioambiental, Google, el gigante del internet,destaca el aumento del consumo de energía en sus centros de datos, así como el repunte de las emisiones vinculadas a la construcción de nuevos centros de datos y a la modernización de los ya existentes.

¿Cuánta energía consume la IA?

Antes de la fiebre de la IA, los centros de datos representaban en torno al 1% del consumo mundial de electricidad, según la AIE.

Si se suman la IA y el sector de las criptomonedas, los centros de datos consumieron casi 460 Twh de electricidad en 2022, es decir 2% de la producción mundial total, según la institución.

Esta cifra podría duplicarse en 2026 hasta alcanzar los 1,000 Twh, lo que equivaldría al consumo eléctrico de Japón, advierte en un informe.

Alex de Vries, economista de la Universidad Libre de Ámsterdam, elaboró un modelo del consumo eléctrico necesario sólo para la inteligencia artificial basándose en proyecciones de ventas de la empresa Nvidia, cuyos procesadores son esenciales para entrenar modelos de IA.

Si las estimaciones de ventas de Nvidia para 2023 son correctas, y si todos los servidores funcionan al máximo de su capacidad, podrían consumir entre 85.4 y 134 Twh al año, lo que consume un país como Argentina, escribe en un artículo.

“Las cifras que puse en mi artículo eran bastante prudentes al principio porque no tienen en cuenta procesos como las necesidades de refrigeración”, declaró.

El año pasado, las ventas de Nvidia superaron sus previsiones, por lo que las cifras podrían ser aún mayores, añadió.