Nvidia, OpenAI y el espejismo de los 100.000 millones: quién manda realmente en la IA
Jensen Huang insiste en que todo va bien con OpenAI. El CEO de Nvidia tacha de «tonterías» las informaciones sobre fricciones y promete que su empresa «participará sin duda» en la próxima ronda de financiación. Pero cuando un plan de hasta 100.000 millones de dólares y 10 gigavatios de infraestructura se redefine como una inversión de «decenas de miles de millones», no estamos ante un simple matiz. Estamos viendo cómo se renegocia, en directo, quién controla el recurso más crítico de esta década: el cómputo para IA. Y eso afecta tanto a Silicon Valley como a Madrid, Ciudad de México o São Paulo.
La noticia en breve
Según resume TechCrunch, Huang respondió en Taipéi a un artículo del Wall Street Journal que afirmaba que Nvidia estaba replanteando su megainversión en OpenAI. En septiembre, ambas compañías habían anunciado un acuerdo no vinculante por el que Nvidia podría invertir hasta 100.000 millones de dólares y ayudar a construir 10 GW de infraestructura de cómputo para OpenAI.
El Wall Street Journal sostiene que Huang ha empezado a subrayar que el acuerdo no es vinculante y que, en privado, ha criticado la estrategia de negocio de OpenAI y expresado preocupación por competidores como Anthropic y Google. Según esa información, las dos empresas estudian ahora una relación más modesta, centrada en una inversión de capital de apenas «decenas de miles de millones».
TechCrunch cita también la respuesta de OpenAI al WSJ: aseguran que están «trabajando activamente» en los detalles de la colaboración y que Nvidia ha sido clave desde el principio y seguirá siendo central. Bloomberg, por su parte, recoge las declaraciones públicas de Huang en Taipéi: Nvidia «participará sin duda» en la nueva ronda de OpenAI e invertirá «mucho dinero», aunque sin concretar cifras. El New York Times ha informado aparte de que Nvidia, Amazon, Microsoft y SoftBank estudian posibles inversiones en la ronda de 100.000 millones que persigue OpenAI.
Por qué importa
Lo que está en juego va mucho más allá del tamaño de un cheque. La relación Nvidia–OpenAI es el laboratorio donde se decide si los fabricantes de chips serán simples proveedores o actores financieros y estratégicos en la cúspide de la IA.
Si Nvidia hubiera cristalizado un paquete cercano a los 100.000 millones y 10 GW prácticamente dedicados, habría atado una parte enorme de su capacidad futura a un único cliente. Gran noticia para OpenAI (y para Microsoft, su socio en la nube), pero pésima señal para el resto del mercado: desde otros hiperescaladores hasta startups latinoamericanas que hoy se pelean por conseguir GPUs.
Al reafirmar públicamente su fe en OpenAI mientras, en paralelo, recalca que el acuerdo es no vinculante y sugiere un volumen menor, Huang persigue tres objetivos claros:
- Mantener poder de negociación sobre la valoración de OpenAI, el acceso a información y las condiciones de suministro.
- Tranquilizar al ecosistema: Nvidia no se convierte en «la fundición privada de OpenAI»; sigue siendo, al menos en teoría, un proveedor neutral.
- Contener el riesgo regulatorio en un momento en que EE. UU., la UE y otros ya miran con lupa la concentración de poder en la nube y en la IA.
Los ganadores inmediatos son los competidores de OpenAI. Anthropic, Google, Meta y el mundo open source tienen más margen para negociar grandes lotes de GPUs si Nvidia no bloquea una parte desproporcionada de su producción para un solo laboratorio. Los perdedores son quienes esperaban que un megapaquete de 100.000 millones blindara de forma casi definitiva el liderazgo de OpenAI.
La lección de fondo es incómoda para el mercado: las cifras de portada en la IA —100.000 millones, 10 GW, valoraciones astronómicas— son, muchas veces, instrumentos de negociación más que compromisos reales.
El panorama de fondo
Este episodio encaja en tres grandes tendencias de la industria.
1. La financiarización del cómputo.
Entrenar modelos punteros ya cuesta miles de millones de dólares en recursos de cómputo. La cifra de 100.000 millones que el WSJ atribuye al objetivo de OpenAI no es sólo grandilocuencia; refleja una nueva realidad: la infraestructura de IA es tan intensiva en capital que empieza a parecerse más a una autopista o a una red eléctrica que a un simple gasto tecnológico.
Por eso vemos a Microsoft comprometiendo inversiones masivas en datacenters ligados a OpenAI, a Amazon y Google entrando en el capital de Anthropic, y a SoftBank anunciando planes para convertirse en actor clave de la infraestructura de IA. Que Nvidia pase de proveedor a inversor profundiza esta lógica: el que controla el hierro no quiere limitarse al margen de fabricante; quiere parte del beneficio final.
2. Integración vertical frente a confianza del ecosistema.
La historia de la tecnología es clara: cuando un actor dominante sube demasiado en la cadena de valor, el ecosistema se pone nervioso. Le pasó a Intel cuando intentó combinar hardware, herramientas y servicios de forma demasiado agresiva. Muchos clientes empezaron a preguntarse si su proveedor no se estaba convirtiendo también en competidor.
Nvidia camina por esa misma cuerda floja. Por un lado, tiene un incentivo obvio para capturar más valor: no sólo vender GPUs, sino influir en qué modelos se entrenan, con qué frecuencia y con qué precios. Por otro, depende de un abanico amplísimo de clientes —hiperescaladores, automoción, videojuegos, industria— que no quieren sentirse de segunda frente al laboratorio de moda de Silicon Valley.
3. Una fase más madura del ciclo de inversión en IA.
En 2023–2024, el mercado aplaudía casi cualquier promesa hiperbólica en IA. Hoy, la reacción más escéptica ante el «plan de 100.000 millones» sugiere que CFO, reguladores y grandes fondos empiezan a pedir más disciplina. ¿Cuáles son los retornos reales? ¿Cuánto tiempo se mantendrá la demanda de GPUs al ritmo actual? ¿Qué pasa si los reguladores frenan los modelos más potentes?
La manera en que está aterrizando el acuerdo Nvidia–OpenAI —de gigantesca cifra teórica a compromiso más escalonado y flexible— es un síntoma de esa madurez.
Europa, España y América Latina: la periferia del cómputo
Desde el punto de vista europeo, este episodio refuerza una verdad incómoda: el centro de decisión sobre hardware e infraestructura de IA está fuera del continente. La UE puede influir en cómo se usan los modelos —a través del Reglamento de IA, el RGPD, la DSA o el DMA—, pero apenas tiene palancas sobre quién fabrica los chips y a quién se destinan prioritariamente.
Si Nvidia hubiera amarrado 10 GW de capacidad casi en exclusiva para OpenAI, la consecuencia práctica para Europa, España o América Latina habría sido simple: menos disponibilidad de GPUs de última generación, plazos más largos y precios más altos para clouds regionales, universidades y empresas que quieran entrenar o servir modelos propios.
Que el acuerdo sea ahora más difuso abre una pequeña ventana. Proveedores europeos de nube, proyectos de supercomputación financiados por la UE y empresas industriales pueden tener más margen para asegurarse capacidad. Pero no cambia el hecho de que dependemos —en Madrid, Bogotá o Santiago— de decisiones tomadas por un puñado de empresas y gobiernos en EE. UU. y Asia.
Para el ecosistema hispanohablante, la conclusión es clara: la soberanía en IA pasa por la soberanía (aunque sea parcial) en cómputo. Eso no significa montar una fábrica de chips en cada país, pero sí apostar por:
- acuerdos a largo plazo con proveedores de GPUs,
- centros de datos locales y regionales,
- estrategias multicloud reales,
- y, cuando tenga sentido, infraestructuras on‑premise en sectores sensibles (banca, salud, sector público).
España ya está viendo cómo los grandes hyperscalers abren regiones cloud en Madrid; México, Chile, Brasil o Colombia viven un boom de centros de datos. El interrogante es si estos proyectos irán más allá de ser «sucursales» de la nube estadounidense o si se convertirán en palancas para que startups y empresas locales tengan voz en la próxima fase de la IA.
Mirando hacia adelante
Lo más probable es que terminemos viendo un acuerdo escalonado y menos espectacular de lo que sugería el titular de los 100.000 millones. Algo así como:
- una participación minoritaria de Nvidia en el capital de OpenAI,
- compromisos plurianuales de suministro de GPUs y sistemas completos,
- quizá coinversión en ciertos centros de datos clave,
- y, muy importante, cláusulas que permitan a Nvidia seguir atendiendo a otros grandes clientes sin restricciones excesivas.
Para OpenAI, la clave será mantener margen de maniobra. Si Microsoft, Nvidia y tal vez Amazon o SoftBank entran en su capital o en sus contratos estratégicos, ¿quién manda realmente? ¿Qué pasa si uno de esos socios exige prioridad en el acceso al cómputo o intenta influir en la hoja de ruta de los modelos?
En términos de calendario, cabe esperar más claridad cuando OpenAI anuncie de forma oficial su nueva ronda de financiación y revele la lista de participantes. Hasta entonces, a ambas partes les conviene jugar al equilibro: Huang proyecta confianza sin fijar cifras; OpenAI mantiene vivas varias opciones a la vez.
El mayor riesgo es exógeno: cambios regulatorios bruscos, nuevas restricciones de exportación, una burbuja de expectativas que estalle si la monetización de la IA generativa no acompaña. La mayor oportunidad, en cambio, está fuera del eje Nvidia–OpenAI: en que este acuerdo no sea tan excluyente y deje espacio para alianzas alternativas —entre AMD y algún hyperscaler, entre gobiernos y clouds regionales, o incluso para un actor hispanohablante que apueste fuerte por infraestructura y modelos propios.
En resumen
Que el supuesto plan de 100.000 millones se esté convirtiendo en algo mucho más matizado no significa que Nvidia desconfíe de OpenAI. Significa que ambos han chocado con los límites reales de la economía de la IA: capital escaso, regulación en aumento y un ecosistema que no aceptará fácilmente a un único ganador. Nvidia quiere ser la casa de apuestas y también jugador; OpenAI quiere fichas sin ceder el control del casino. Para Europa y el mundo hispanohablante, la pregunta de fondo es incómoda: ¿seguiremos siendo clientes de segunda fila en la batalla por el cómputo, o aprovecharemos esta fase de reequilibrio para construir algo propio?



