La conversación sobre tecnología gira siempre en torno a las modas, y ahora mismo, nada está tan en boga como la inteligencia artificial. Todos los países que quieren estar en el centro de esta revolución están desarrollando sus propios modelos y herramientas. Lo curioso es cómo la geopolítica influye en todo: mientras Estados Unidos busca mantener su independencia tecnológica, China apuesta por monetizar rápidamente estas capacidades.
Más allá de la potencia de los distintos modelos, es clave hablar de dos aspectos relacionados entre sí: los centros de datos que requieren cantidades ingentes de cálculo para entrenar estos sistemas de IA y, por supuesto, de dónde obtienen la enorme energía necesaria para funcionar.
De esta discusión ha surgido un término curioso: los “bragawatts”.
Este término surge porque, cuando empresas como OpenAI o Google anuncian nuevos centros de datos dedicados a IA, suelen destacar cifras enormes sobre el consumo energético que tendrán. Por ejemplo, OpenAI comunicó la construcción de un nuevo campus en Michigan que, junto a otros seis centros anunciados recientemente, necesitarán más de 8 gigavatios (GW) para operar.
En enero de este año lanzaron un plan de inversión de 500.000 millones de dólares y una capacidad prevista de 10 GW.
Para poner esto en perspectiva, según cálculos del Financial Times, con el proyecto de Michigan, OpenAI tendría una capacidad computacional de 46 GW. Para entenderlo mejor: 1 GW puede abastecer la electricidad de unos 800.000 hogares estadounidenses. Así que estos centros de datos consumirían tanta energía como más de 44 millones de hogares, casi tres veces todas las viviendas que hay en California.
Que estas compañías compartan estas cifras de forma tan abierta ha llevado a la creación del término “bragawatt”, una mezcla entre “brag” (presumir) y “watt” (unidad de potencia). En resumen, es una especie de fanfarronada: empresas que a veces exageran públicamente el consumo previsto de sus instalaciones para llamar la atención.
¿Por qué hacen esto? Como suele pasar con compañías que cotizan en bolsa, buscan captar el interés de la prensa, del sector tecnológico y, especialmente, de los inversores. Aunque a menudo estas cifras no se cumplen de forma estricta, detrás de la fanfarronería hay una realidad importante.
Por ejemplo, OpenAI pidió al gobierno de Estados Unidos garantizar un suministro anual de 100 GW para apoyar todos los desarrollos de IA del país. NVIDIA, por su parte, explicó por qué es complicado estimar la demanda energética de estos centros.
En un informe reciente, señalaron que, a diferencia de un centro de datos tradicional, que gestiona miles de tareas independientes, una “fábrica” de IA funciona como un sistema único. Al entrenar un modelo de lenguaje grande, miles de GPUs realizan ciclos de cálculo intensos y sincronizados, seguidos de periodos de intercambio rápido de datos.
Esto genera fuertes variaciones en el consumo eléctrico: un rack puede pasar en milisegundos de un estado de uso al 30% a un 100%, lo que obliga a diseñar componentes sobredimensionados para soportar esos picos máximos, aumentando costes y espacio.
Cuando estas fluctuaciones ocurren en toda una sala de datos, pueden representar cientos de megavatios que suben y bajan en segundos, lo que amenaza la estabilidad de la red eléctrica. Por eso, la conexión con la red se convierte en un cuello de botella importante para la expansión de la IA.
Más allá de la exageración, esas cifras tan altas esconden un problema real. De hecho, las grandes tecnológicas en Estados Unidos están asegurándose importantes fuentes de generación eléctrica, muchas de ellas nucleares o mediante contratos con compañías de petróleo y gas.
En un giro paradójico, mientras el mundo busca avanzar en la descarbonización, el carbón está resurgiendo para alimentar estos “glotones” centros de datos. Además, algunas grandes petroleras están replanteando sus planes de adopción de energías renovables, pues la IA demanda energía rápida y capaz de soportar picos de rendimiento, algo que las renovables todavía no pueden garantizar plenamente.
Para terminar de dimensionar el asunto, se estima que para 2029 el gasto global en centros de datos llegará a los 3 billones de dólares, una cifra equivalente al tamaño de la economía de Francia en 2024. Si hablamos de una burbuja o no, ese es otro debate, pero hay quienes consideran difícil creer en esos “fanfarrovatios”. Otros, sin embargo, opinan que la IA tendrá un impacto mayor que tecnologías previas, incluida Internet, y que, por tanto, esa necesidad de energía a gran escala está justificada.
Al final, será el tiempo quien confirme cómo evoluciona todo esto.



