Desafíos energéticos en la escalabilidad de chips para IA avanzada

El mayor cuello de botella en IA no es el chip, sino la energía para alimentarlos. Gigantes tech exploran reactores modulares pequeños y centrales propias para soportar la creciente demanda de centros de datos y GPUs en IA. https://tinyurl.com/muzpj4fb

M
MIIA
editorial
3 de noviembre de 2025·3 min de lectura
Desafíos energéticos en la escalabilidad de chips para IA avanzada

Satya Nadella, CEO de Microsoft, comentó en una reciente entrevista que el principal desafío en el mundo de la inteligencia artificial no es la producción excesiva de chips, sino la falta de energía suficiente para alimentarlos a todos. Este problema, que ya se venía anticipando desde hace tiempo, se debe a que hay demasiados chips y muy poca capacidad energética para mantenerlos funcionando.

Durante la charla, en la que también participó Sam Altman, CEO de OpenAI, Nadella señaló: “El mayor problema actual no es tener demasiada capacidad informática, sino contar con la energía necesaria. Se trata de poder construir los centros de datos cerca de fuentes de energía adecuadas”.

Para ilustrar la situación, Nadella explicó que sin la energía suficiente, muchos chips se quedan guardados sin poder usarse. “No es que falten chips, sino que no hay lugares donde conectarlos y hacer que funcionen”, dijo.

Este problema de energía no es nuevo para empresas como Microsoft. Desde hace años, han estado preparándose para esta demanda creciente. Por ejemplo, desde otoño de 2023 buscaban expertos para desarrollar su programa nuclear, con la intención de aprovechar los reactores modulares pequeños (SMR), una tecnología prometedora para suministrar energía a futuros centros de datos. Google tomó una dirección similar un año después, asociándose con Kairos Power para construir siete reactores de este tipo antes de 2030.

Las grandes tecnológicas, que invierten miles de millones en nuevos centros de datos en Estados Unidos, han descubierto que la red eléctrica actual no alcanza para cubrir sus necesidades. Por eso, están optando por construir sus propias centrales eléctricas, con el objetivo de equilibrar la demanda energética que requieren estas enormes instalaciones, donde miles de GPUs trabajan continuamente procesando inteligencia artificial para usuarios presentes y futuros.

Según un informe de la Agencia Internacional de la Energía (AIE), en 2022 los centros de datos consumieron entre 240 y 340 teravatios hora (TWh), excluyendo la minería de criptomonedas. Esto representa un aumento de entre el 20% y el 70% respecto a 2015. Además, en abril de 2024 la AIE advirtió que varios países multiplicarán significativamente ese consumo en el futuro cercano.

Por su parte, Rene Haas, CEO de ARM, estimó que las necesidades energéticas podrían triplicarse, sin saber aún con exactitud cómo evolucionará este escenario. Desde entonces, los proyectos en el ámbito de la IA han crecido exponencialmente, con iniciativas gigantescas como Stargate, respaldadas por inversiones millonarias, en la apuesta de que la inteligencia artificial será una revolución que transformará nuestro día a día.

fuente original
https://www.xataka.com/robotica-e-ia/mundo-ia-tiene-problema-no-hay-energia-para-chip
Prueba MIIA

Agentes de IA para WhatsApp, Instagram y Messenger. Configurados en 10 minutos.

Seguir leyendo

relacionado con #inteligencia artificial · #centros de datos · #energía
Prueba MIIA gratis →
WhatsApp