Titular e introducción
Los nuevos chips de IA de Google no son un misil directo contra Nvidia, sino una jugada mucho más típica de Silicon Valley: reforzar el control sobre la infraestructura que todos los demás necesitan. Con el TPU 8t para entrenamiento y el TPU 8i para inferencia, Google quiere que más modelos nazcan y vivan dentro de su nube.
Aquí analizamos qué se ha anunciado realmente, por qué Nvidia no va a hundirse de la noche a la mañana y qué implicaciones tiene esto para Europa y para el ecosistema hispanohablante, desde Madrid hasta Ciudad de México y Bogotá.
La noticia en breve
Según informa TechCrunch, Google Cloud presentó en su conferencia Next la octava generación de sus chips propios para inteligencia artificial, llamados Tensor Processing Units (TPU). Por primera vez, la gama se divide en dos productos: el TPU 8t, optimizado para entrenar grandes modelos de IA, y el TPU 8i, pensado para la fase de inferencia, cuando los modelos responden a las peticiones de los usuarios.
Google afirma que estos nuevos TPU ofrecen hasta tres veces más velocidad de entrenamiento que la generación anterior y alrededor de un 80 % más rendimiento por dólar invertido. Además, se pueden agrupar en clusters de más de un millón de chips trabajando juntos.
Importante: estos chips no sustituyen a las GPU de Nvidia en Google Cloud. TechCrunch señala que Google seguirá ofreciendo el hardware más reciente de Nvidia, incluida la próxima generación Vera Rubin, y que ambas compañías colaboran en tecnologías de red como Falcon, un sistema de redes definido por software que Google abrió en 2023 dentro del Open Compute Project.
Por qué importa
La lectura superficial es “Google contra Nvidia”. La lectura estratégica es “las nubes hiperescala contra todos los demás”.
Los TPU solo existen dentro de Google Cloud. Cada salto de eficiencia amplía la brecha entre:
- Los clientes que aceptan el stack propietario de Google, y
- Los que intentan competir con hardware estándar en centros de datos propios o en nubes más pequeñas.
Si el TPU 8 realmente ofrece hasta 3× más velocidad de entrenamiento y un 80 % mejor rendimiento por dólar, el incentivo económico para irse a una nube gigante es todavía mayor. Startups de modelos fundacionales, scaleups SaaS y equipos internos de IA en banca, salud o retail tendrán cada vez más difícil justificar clusters propios de GPU.
La separación entre TPU 8t (entrenamiento) y 8i (inferencia) también es clave. Son dos negocios muy distintos:
- El entrenamiento es esporádico, caro y arriesgado.
- La inferencia es continua, predecible y con márgenes muy ajustados.
Con chips especializados para cada fase, Google puede maximizar la utilización y exprimir más margen: vender entrenamiento como recurso “premium” y ofrecer inferencia como servicio masivo de bajo coste.
¿Quién pierde? A corto plazo, no tanto Nvidia. Google sigue siendo un cliente enorme y está co‑diseñando con Nvidia la capa de red para que sus GPU rindan aún mejor. Mientras la demanda global de cómputo de IA siga creciendo, Nvidia venderá prácticamente todo lo que fabrique.
Quienes quedan más expuestos son:
- Los proveedores de nube medianos, que no pueden financiar sus propios chips.
- Los clientes, que hoy obtienen IA más barata pero a cambio se atan cada vez más a un único proveedor y a su combinación de hardware, APIs y herramientas.
El panorama general
Los TPU 8t/8i encajan en una macro‑tendencia clara: los grandes de la nube integran verticalmente la pila de IA.
Amazon tiene sus chips Trainium e Inferentia. Microsoft anunció el acelerador Maia y la CPU Cobalt para servidores. Meta diseña sus propios chips para recomendación y modelos generativos. Todos siguen comprando miles de millones en GPU de Nvidia.
El patrón se repite:
- Nvidia como ancla de compatibilidad – La mayor parte del software de IA está optimizado para su ecosistema. Nadie puede ignorarlo.
- Silicio propio donde más duele el coste – Grandes entrenamientos y cargas masivas de inferencia son demasiado caros si se pagan solo a terceros.
- Abstracción del hardware detrás de servicios gestionados – El cliente ya no compra GPU, compra “plataforma de entrenamiento”, “búsqueda vectorial”, “API de chat”. El chip es un detalle interno.
No es la primera vez que ocurre. En los años 2010 vimos cómo los hyperscalers desarrollaban sus propias tarjetas de red, switches y sistemas de almacenamiento, desplazando a muchos proveedores tradicionales. La IA solo es la siguiente capa de ese proceso.
Para Nvidia, la amenaza no es este lanzamiento concreto, sino la lenta erosión de su poder de negociación. Mientras haya más demanda que capacidad de producción, la fiesta continúa. Pero cuando el mercado se estabilice, pesará más qué porcentaje de los ciclos de cómputo se ejecuta en chips propios de las nubes y cuánto en GPU estándar de Nvidia.
El hecho de que Google y Nvidia colaboren en Falcon refuerza una idea: el verdadero foso defensivo no es solo el chip, sino el sistema completo – interconexión, software de redes, compiladores, orquestación, eficiencia energética. Ahí es donde se decidirá quién puede seguir bajando precios de IA sin perder dinero.
La perspectiva europea e hispanohablante
Para Europa y para el mundo hispanohablante, el movimiento de Google plantea un dilema clásico: acceso a tecnología puntera vs. dependencia de proveedores extranjeros.
La parte positiva: más cómputo de IA, más barato, facilita que startups en Barcelona, Madrid, Buenos Aires o Ciudad de México entrenen modelos más avanzados o construyan productos sobre grandes modelos existentes. Los centros de investigación y universidades también se benefician si pueden negociar créditos en la nube.
La parte negativa: los TPU son sinónimo de lock‑in. No puedes instalarlos en un centro de datos local ni integrarlos en una nube soberana española o latinoamericana; solo existen bajo las reglas de Google.
Eso choca con la agenda de soberanía digital de la Unión Europea y con iniciativas como GAIA‑X. Regulaciones como el RGPD, la Ley de Servicios Digitales, la Ley de Mercados Digitales y el próximo Reglamento de IA apuntan a más transparencia, portabilidad y capacidad de cambiar de proveedor.
Los proveedores europeos de nube – OVHcloud, Scaleway, IONOS, los operadores de telecomunicaciones – no pueden competir en diseño de chips, y muchos clouds regionales en América Latina están en la misma situación. La tentación para clientes será irse con quien tenga el chip más eficiente, aunque eso signifique concentrar todavía más poder en EE. UU.
Para empresas españolas y latinoamericanas que manejan datos sensibles (salud, banca, sector público) la decisión será especialmente compleja: ¿asumir más dependencia de Google a cambio de costes de IA mucho más bajos, o priorizar la soberanía y la capacidad de moverse entre proveedores, aunque sea más caro?
Mirando hacia adelante
Lo que viene ahora no es tanto una guerra de benchmarks como una guerra de modelos de negocio.
Es razonable esperar que Google utilice TPU 8t/8i para:
- bajar agresivamente los precios de entrenamiento e inferencia para quienes adopten TPU,
- empaquetar la IA en servicios de alto nivel donde el cliente paga por token o por petición, sin saber qué chip hay detrás,
- expandir el acceso a TPU en regiones europeas para captar sectores regulados que exigen procesamiento dentro de la UE.
¿Qué deberían vigilar las empresas en España y Latinoamérica en los próximos 12–24 meses?
- Portabilidad de modelos – ¿Es sencillo mover modelos entre GPU de Nvidia on‑premise y TPU en Google Cloud? ¿Qué tan maduro está el soporte en PyTorch, TensorFlow, JAX, etc.?
- Herramientas multi‑nube – ¿Las plataformas MLOps y los orquestadores abiertos tratan los TPU como ciudadanos de primera clase o como una ruta muy específica de Google?
- Presión regulatoria en la UE – Si Bruselas obliga a los grandes proveedores a facilitar el cambio de nube (DMA), eso podría traducirse en mejores garantías de interoperabilidad también para clientes fuera de Europa.
También hay riesgos para Google. Si los clientes priorizan cada vez más la portabilidad – y si surgen alternativas abiertas de hardware acelerador en Asia o Europa –, una apuesta demasiado fuerte por un silicio propietario podría convertirse en lastre. Además, si el boom de gasto en IA se enfría, mantener una línea propia de chips pasa de ventaja estratégica a coste fijo muy elevado.
Nvidia, por su parte, seguirá con lista de espera mientras la fiebre de la IA continúe. El punto de inflexión será gradual y se verá primero en un dato: qué porcentaje del cómputo de IA en cada nube corre ya sobre chips de la casa y no sobre GPU de Nvidia.
Conclusión
Los TPU 8t y 8i de Google no destronan a Nvidia, pero sí refuerzan la dependencia de los clientes respecto a unas pocas nubes dominantes. A corto plazo, los usuarios ganan en precio y rendimiento; a medio plazo, pierden capacidad de negociación y de movimiento.
Para las empresas europeas e hispanohablantes, la pregunta incómoda es inevitable: ¿van a optimizar su estrategia de IA para el coste mínimo hoy, o para la libertad de cambiar de proveedor mañana?



