El gran consumo de energía de los centros de datos no es nada nuevo. Elon Musk advierte que en dos años podríamos enfrentar una escasez de transformadores, mientras que Sam Altman cree que necesitaremos una revolución energética, como la fusión nuclear, para seguir el ritmo. El planeta simplemente no estaba preparado para esta creciente demanda. Por eso, Nvidia está apoyando una posible solución bastante innovadora: trasladar los servidores fuera de la Tierra.
Aunque parezca ciencia ficción, varias startups están planteando construir los próximos hipercentros de datos en órbita o incluso en la Luna. Lo que hasta hace poco parecía una idea descabellada está ganando terreno, sobre todo gracias a dos factores: el insaciable crecimiento de la inteligencia artificial y la promesa de lanzamientos de bajo costo que trae consigo el cohete Starship.
Una de las empresas líderes en esta apuesta es Starcloud, que cuenta con el respaldo del programa NVIDIA Inception. Tienen planes serios y muy próximos: en noviembre lanzarán su primer satélite, el Starcloud-1, que llevará a bordo la primera GPU para centros de datos en el espacio, una NVIDIA H100.
Claro que lo más complicado está por venir. El Starcloud-1 es una unidad prueba, del tamaño de una pequeña nevera, pero la visión de la compañía es mucho más ambiciosa: construir un enorme centro de datos orbital que genere hasta cinco gigavatios. Sumando los paneles solares y un radiador gigante, la estructura tendría unos cuatro kilómetros de ancho. Su enfoque principal será entrenar grandes modelos de inteligencia artificial desde el espacio.
¿Por qué hacerlo en órbita? Según explican en un detallado documento técnico, las futuras generaciones de modelos como GPT-6 o Llama 5 podrían necesitar clusters con varios gigavatios de potencia, algo que la infraestructura energética actual en la Tierra simplemente no puede soportar. En el espacio, ese límite no existe.
Además, Starcloud calcula que los costos energéticos para operar servidores en el espacio podrían ser hasta diez veces menores que en la Tierra. La ventaja de los centros de datos espaciales se basa en dos grandes problemas terrestres: la energía y la refrigeración.
En tierra, la energía solar es intermitente, dependiendo del ciclo día-noche, el clima y la atmósfera, que reduce la radiación. En órbita, con una órbita heliosíncrona del tipo “amanecer-anochecer”, los satélites mantienen sus paneles solares iluminados casi todo el tiempo, alcanzando una capacidad superior al 95%. Es decir, energía renovable prácticamente continua y a bajo costo.
Pero, ¿qué pasa con la refrigeración? Los centros de datos convencionales suelen consumir millones de litros de agua dulce para enfriarse, y en el espacio no hay agua. Sin embargo, ahí tienen algo mucho mejor: un disipador térmico natural a -270 °C, el vacío del espacio.
El calor generado por las GPU, como la H100, se absorberá dentro de módulos sellados mediante refrigeración líquida directamente en el chip o por inmersión, similar a la tecnología que ya se usa en centros terrestres de alto rendimiento. La gran diferencia es que ese líquido calentado no se enfría en torres de evaporación, sino que se bombea hacia enormes paneles radiadores. Estos irradian el calor al vacío en forma de radiación infrarroja. Según los cálculos de Starcloud, aplicando la ley de Stefan-Boltzmann, un radiador a 20 °C puede disipar más de 630 vatios por metro cuadrado sin usar ni una gota de agua.
Pero no todo es tan sencillo en el espacio. Este proyecto depende en gran medida de que los cohetes reutilizables de alta capacidad, como Starship de SpaceX, realmente logren reducir el costo de lanzamiento a largo plazo a unos 30 dólares por kilo en órbita. Sin embargo, Starship aún no está operativo a ese nivel y está lejos de conseguir una reutilización rápida y total. Si ese costo no se logra, la viabilidad económica del sistema se pone en riesgo.
Otro desafío importante es la radiación. Las GPU comerciales no están diseñadas para resistir la radiación cósmica ni las erupciones solares, que pueden dañar la electrónica. La solución es protegerlas con blindaje, lo que añade peso extra y, por ende, incrementa el costo del lanzamiento. Además, el mantenimiento de estos equipos en el espacio no es posible con la tecnología actual.
En resumen, mientras la demanda energética de la IA supera lo que el planeta puede ofrecer, proyectos como este, impulsados por Nvidia y startups como Starcloud, están explorando posibilidades que antes parecían imposibles: llevar los centros de datos al espacio para aprovechar energía solar continua y una refrigeración natural eficiente. Será clave ver si los lanzamientos económicos y la resistencia de la tecnología en órbita hacen realidad esta prometedora idea.



