Qualcomm anunció el lunes que está desarrollando nuevos chips aceleradores de inteligencia artificial, lo que significa que habrá más competencia para NVIDIA, la empresa que actualmente domina este mercado. Sin embargo, el desafío que enfrentan estas compañías no está tanto en el hardware, sino en otra área clave llamada CUDA.
La compañía presentó dos nuevos chips: el AI200, que llegará al mercado en 2026, y el AI250, previsto para 2027. Ambos podrán integrarse en sistemas tipo rack con refrigeración líquida. Estos servidores podrán contener hasta 72 chips, basados en las NPUs Hexagon de los procesadores Snapdragon de Qualcomm.
Estos chips están diseñados para tareas de inferencia —es decir, para ejecutar modelos de IA— pero no para el entrenamiento de estos modelos. Qualcomm asegura que sus sistemas tendrán costos operativos más bajos que los proveedores actuales de servicios en la nube. Un rack consumirá aproximadamente 160 kW, un nivel similar al de algunos racks con GPUs de NVIDIA. Aunque aún no se conocen detalles sobre precios ni sobre cuántas NPUs incluirán cada rack, sí se sabe que las tarjetas aceleradoras soportarán hasta 768 GB de memoria, más que lo que ofrecen actualmente NVIDIA o AMD.
Otro punto destacado es que Qualcomm venderá sus chips y componentes por separado, permitiendo que grandes empresas personalicen sus propios racks con tecnología Qualcomm, una estrategia similar a la que usan con sus chips para móviles. Ante este anuncio, las acciones de Qualcomm subieron un 11% en la Bolsa.
En cuanto a NVIDIA, sigue siendo el líder indiscutible en chips para IA, con cerca del 90% del mercado y una valoración que roza los 4,5 billones de dólares. Sin embargo, su posición enfrenta cada vez más competencia con propuestas interesantes de AMD, Google, Amazon, Microsoft y Huawei, que han lanzado sus propias soluciones de hardware para IA. Pero el verdadero reto para estos competidores no está solo en crear hardware, sino en el software.
El problema principal es que CUDA se ha convertido en el estándar dominante en la industria de la inteligencia artificial. Esta plataforma permite sacar el máximo provecho del hardware de NVIDIA gracias a una amplia colección de librerías, frameworks optimizados y una comunidad consolidada. Otras alternativas como ROCm de AMD, que es de código abierto, aún no alcanzan la madurez ni el rendimiento de CUDA.
CUDA lleva casi dos décadas en el mercado y muchas de las investigaciones y modelos de IA más importantes fueron desarrollados pensando en esta plataforma. Por eso, crear un competidor es un enorme desafío, parecido a reinventar la rueda. Además, migrar proyectos a nuevas plataformas implica costos y dificultades que muchas empresas y startups prefieren evitar.
Por último, China también está apostando fuerte en esta carrera. Buscando reducir su dependencia de NVIDIA, el país avanza no solo en el desarrollo de chips de IA propios, sino también en crear software que pueda rivalizar con CUDA.
El desarrollo de chips para IA está en auge, pero lo realmente decisivo será contar con un ecosistema de software lo suficientemente sólido para que esos chips puedan aprovechar todo su potencial.



