Samsung se ha convertido en uno de los protagonistas de este febrero. Aunque todos esperan la presentación de los nuevos Galaxy S26, la compañía guarda un as bajo la manga que podría tener un gran impacto no solo en sus finanzas, sino también en la economía de Corea del Sur. Hablamos de las memorias de alto ancho de banda (HBM4), una tecnología clave en plena crisis del mercado de RAM y SSD, y que Samsung está lista para producir en masa.
Estas memorias estarán destinadas, como era de esperar, a la inteligencia artificial.
Aunque Samsung no ha confirmado oficialmente la noticia, varios informes de Reuters y medios locales como el Korea JoongAng Daily señalan que la surcoreana iniciará la producción masiva de chips HBM4 la próxima semana. Esto la convertiría en la primera de las tres grandes productoras de este tipo de chips — junto a SK Hynix (también surcoreana) y la estadounidense Micron, que ha dejado el segmento de RAM para consumo — en lanzar a gran escala esta memoria fundamental para la IA.
La memoria HBM4 destaca por su enorme ancho de banda, ideal para GPUs. Mientras que NVIDIA sigue apostando por la memoria GDDR para sus tarjetas gráficas, AMD ya apostó por la tecnología apilada HBM en sus GPU Vega. Sin embargo, esta tecnología nunca ha alcanzado el mercado de consumo porque su precio es muy elevado. La fabricación de HBM es más costosa que la de chips DRAM tradicionales, pero sus ventajas son notables: por ejemplo, los chips HBM4 apilados permiten el doble de ancho de banda que la generación anterior y consumen hasta un 40% menos energía que las HBM3, algo clave para manejar grandes cantidades de datos sin un consumo excesivo.
La mayor interesada en este avance es NVIDIA, que lidera la industria de inteligencia artificial actual gracias a sus chips. Se espera que la memoria de Samsung sea integrada en los sistemas de aceleración Vera Rubin de NVIDIA. Incluso Jensen Huang, CEO de la compañía, ha pedido a toda la industria de semiconductores que acelere y amplíe la producción de estos chips, una llamada que no afecta solo a Samsung.
Desde Corea del Sur destacan que Samsung tiene la mayor capacidad de producción a nivel mundial y una amplia línea de productos, lo que le ha permitido recuperar su competitividad tecnológica al ser la primera en producir en masa la memoria HBM4 de alto rendimiento. Mientras tanto, SK Hynix tiene previsto comenzar a fabricar su versión entre marzo y abril, lo que deja a Samsung con una ventaja temporal para abastecer a NVIDIA. Además, Samsung no depende de fundiciones externas como TSMC, ya que produce sus módulos HBM4 basados en una fotolitografía de 4 nanómetros en su propia planta.
SK Hynix no se ha quedado atrás, ya que lideró la generación anterior con la memoria HBM3E, pero por su calendario decidió comenzar más tarde con la nueva generación. A pesar de que la memoria HBM es el estándar para sistemas de IA, sigue siendo cara y genera mucho calor, lo que requiere sistemas avanzados de refrigeración.
Por eso, las empresas están combinando la producción de memoria HBM4 con una nueva generación de memoria DRAM. El objetivo es encontrar un equilibrio que permita usar memorias más accesibles y frescas, aunque más lentas, que puedan competir en ancho de banda con la HBM. Samsung y SK Hynix trabajan en ello, pero ahora también deben enfrentar la competencia inesperada de Intel, que ha entrado en esta batalla junto con el gigante japonés SoftBank.
En resumen, Samsung apunta a recuperar su liderazgo en fabricación y mantener su rol clave en el desarrollo del hardware para inteligencia artificial, un sector en el que la demanda por memorias avanzadas crece, mientras que los precios de RAM y SSD para consumo siguen altos.


