En 2013, Jeff Dean, uno de los directivos de Google, se dio cuenta de un problema: si cada usuario de Android utilizara la búsqueda por voz solo tres minutos al día, la empresa tendría que duplicar la cantidad de centros de datos para manejar la carga computacional. En ese momento, Google usaba CPUs y GPUs estándar, pero vieron que no era suficiente y decidieron crear sus propios chips.
Así nació la primera Tensor Processing Unit (TPU), un circuito específico para ejecutar las redes neuronales que impulsaban servicios de voz. Desde entonces, estas TPUs evolucionaron rápidamente y para 2015 ya aceleraban funciones como Google Maps, Google Photos y Google Translate. Una década después, estas TPUs son tan potentes que hoy representan una amenaza inesperada para el dominio de NVIDIA en chips para inteligencia artificial.
Hasta hace poco, las empresas de IA confiaban casi exclusivamente en los chips de NVIDIA para entrenar sus modelos. Pero en los últimos meses eso ha cambiado. Un ejemplo es Claude Opus 4.5, un modelo de IA de Anthropic, que combina la potencia de tres fuentes: los chips de NVIDIA, los Trainium de Amazon y las TPUs de Google.
Además, Google presentó en abril de 2025 su nueva generación de TPUs llamada Ironwood, que ha sido clave para entrenar su modelo de IA Gemini 3, su último desarrollo de inteligencia artificial. Estas TPUs de séptima generación ofrecen un rendimiento y eficiencia mucho mayores, duplicando la capacidad de procesamiento por vatio respecto a la generación anterior. Por ejemplo, comparadas con las TPUs v5p de 2023, alcanzan 4.614 TFLOPS, diez veces más que las anteriores.
Otro cambio importante en 2025 es que Google ha abierto el acceso a sus TPUs para otros jugadores. Antes las usaba solo internamente, pero ahora ha firmado acuerdos para que OpenAI y Anthropic usen sus chips. En particular, el acuerdo con Anthropic incluye la venta y alquiler de un millón de TPUs, combinando hardware físico suministrado por Broadcom y capacidad en la nube a través de Google Cloud.
Desde un punto de vista técnico, las nuevas TPUs Ironwood se acercan mucho en rendimiento a los chips más avanzados de NVIDIA, como los GB200 y GB300. Pero donde Google gana ventaja es en costos: el costo total de propiedad de un servidor con TPUs Ironwood es aproximadamente un 44% menor que uno con chips de NVIDIA, lo que permite ofrecer precios más competitivos.
Además, Google ha desarrollado una infraestructura propia para conectar miles de TPUs entre sí usando una red de baja latencia y alta eficiencia energética, basada en conmutadores ópticos y una arquitectura de red avanzada, lo que mejora la escalabilidad y fiabilidad del sistema.
En cuanto al software, NVIDIA ha mantenido su hegemonía gracias a CUDA, la plataforma preferida por desarrolladores e investigadores de IA. Google está trabajando para cerrar esa brecha, mejorando el soporte nativo de PyTorch en sus TPUs, lo que facilita a los desarrolladores migrar sus proyectos desde GPUs NVIDIA a las TPUs sin complicaciones.
También están avanzando en software para ecosistemas de inferencia abiertos, desarrollando librerías que permiten ejecutar modelos de IA de manera eficiente, como vLLM y SGLang, adaptándolas para funcionar de forma nativa en TPUs y eliminando la necesidad de traducciones poco eficientes.
Todo esto indica que Google ya no es solo un proveedor de infraestructura en la nube, sino un competidor sólido en el mercado de hardware para inteligencia artificial, ofreciendo mejor rendimiento por dólar, una red de chips altamente escalable y una prometedora estrategia en software. NVIDIA, líder hasta ahora, se enfrenta a un reto serio y está por verse cómo responderá a esta competencia creciente.



