El espejismo de los 100.000 millones: lo que revela el no‑acuerdo entre Nvidia y OpenAI sobre la burbuja de la IA

3 de febrero de 2026
5 min de lectura
Jensen Huang y Sam Altman en un escenario frente a racks de servidores de IA

1. Titular e introducción

En septiembre de 2025, el anuncio de que Nvidia invertiría hasta 100.000 millones de dólares en la infraestructura de OpenAI sonó como el acto fundacional de la nueva era de la IA. Cinco meses después, el dinero no aparece, la cifra se relativiza y OpenAI se mueve con decisión hacia otros proveedores de chips. No es solo un malentendido mediático: es una señal temprana de hasta qué punto el boom de la IA está tensionando el mercado. En este artículo analizamos qué ha pasado realmente, quién gana y quién pierde, y qué significa para Europa y para el mundo hispanohablante.

2. La noticia en breve

Según Ars Technica, Nvidia y OpenAI firmaron en septiembre de 2025 una carta de intenciones por la que Nvidia podría invertir hasta 100.000 millones de dólares en la infraestructura de IA de OpenAI. El plan contemplaba unos 10 gigavatios de sistemas Nvidia, una capacidad similar a la producción conjunta de unas diez centrales nucleares.

Sin embargo, el acuerdo definitivo no ha llegado a firmarse. El CEO de Nvidia, Jensen Huang, ha aclarado desde entonces que la cifra de 100.000 millones nunca fue un compromiso firme, sino un máximo potencial, y que cualquier inversión se haría por fases. Como resume Ars Technica a partir de información de Reuters y The Wall Street Journal, OpenAI ha estado paralelamente explorando alternativas: un acuerdo de 10.000 millones con Cerebras, un contrato de GPUs con AMD y un proyecto conjunto con Broadcom para diseñar un chip de IA a medida.

Reuters también señala que ingenieros de OpenAI mostraron insatisfacción con el rendimiento en inferencia de algunos GPUs de Nvidia, por ejemplo en el producto Codex, lo que empujó la búsqueda de soluciones de menor latencia. Tras estas informaciones, la acción de Nvidia cayó moderadamente, mientras ambas empresas insistían en público en que la relación sigue siendo sólida.

3. Por qué importa

Este no‑acuerdo destapa la tensión central del momento actual: todo el mundo quiere las márgenes de Nvidia, pero nadie quiere la dependencia de Nvidia.

A corto plazo, Nvidia evita atarse a una operación gigantesca y circular que ya generaba sospechas: inviertes en tu cliente para que pueda comprarte todavía más hardware. Es una forma eficaz de acelerar el crecimiento sobre el papel, pero abre la duda de cuánto de la demanda es orgánica y cuánto está financiada por el propio proveedor.

Para OpenAI, el mensaje es el contrario: la compañía no quiere quedar cautiva de un único suministrador de GPUs, por muy avanzados que sean sus chips. Los movimientos hacia Cerebras, AMD y Broadcom apuntan a una estrategia consciente de multivendedor y multiarquitectura, pensada para bajar costes, reducir latencias y mejorar su poder de negociación.

Los perdedores inmediatos son los inversores que extrapolaban una demanda infinita de GPUs Nvidia, y muchas startups de infraestructura de IA que se apoyaban precisamente en ese modelo de “Nvidia te financia para que compres Nvidia”. Si el cliente emblemático del sector está buscando salidas a ese círculo, justificar despliegues masivos de GPUs en cualquier proyecto se vuelve más difícil.

En un plano más sutil, el episodio erosiona la sensación de que el dominio de Nvidia es incuestionable. Incluso los mejores chips del mundo están sujetos a limitaciones de energía, latencia y coste… y al miedo de los clientes a quedar encerrados en un único proveedor.

4. El cuadro general

Nada de esto sucede en el vacío. Desde hace una década, los grandes de la nube han aprendido la misma lección: si la IA es estratégica, acabarás diseñando tu propio silicio.

Google abrió camino con sus TPU, Amazon siguió con Inferentia y Trainium, y Meta desarrolla aceleradores propietarios. OpenAI, sin nube propia, ha estado atada a las decisiones de hardware de terceros –sobre todo Microsoft Azure con GPUs de Nvidia–. El proyecto con Broadcom para un chip a medida y el acuerdo con Cerebras son la respuesta tardía a esa dependencia estructural.

Por su parte, Nvidia ha perfeccionado un modelo de crecimiento basado en invertir en empresas de IA que luego se convierten en grandes clientes de GPUs, con contratos de compra a futuro. Es un bucle de demanda parcialmente sintética: el fabricante financia al comprador, el comprador usa ese capital para adquirir sus chips, y ambos muestran las cifras como prueba de un mercado en explosión.

El hecho de que el acuerdo de 100.000 millones con OpenAI se haya desinflado pone ese modelo bajo la lupa. Si el cliente más visible y creíble del sector no quiere jugar a esa escala, se refuerza la idea de que algunas proyecciones eran excesivamente optimistas.

A nivel de tendencia, el caso encaja en un cambio de foco: de “más FLOPs” a “mejores FLOPs”. El entrenamiento de modelos gigantes seguirá dominado por GPUs, pero la inferencia masiva –servir respuestas a cientos de millones de usuarios– está gobernada por la latencia, el consumo energético y el coste por consulta. Ahí es donde los aceleradores especializados y los ASIC personalizados pueden superar a las GPUs generalistas. El no‑acuerdo Nvidia–OpenAI es una de las señales más visibles de que este cambio ya está en marcha.

5. El ángulo europeo e hispano

Para Europa, la moraleja es incómoda: la soberanía en IA basada en silicio importado es frágil.

Los proveedores europeos de nube y las startups dependen en gran medida de los ciclos de precio y suministro de Nvidia. Si OpenAI –respaldada por Microsoft– siente la necesidad de diversificarse, los actores europeos, con mucho menos poder de negociación, deberían preocuparse aún más por el riesgo de un único proveedor.

Los reguladores también tomarán nota. Las autoridades de competencia de la UE ya miran con lupa el poder de los hyperscalers; un esquema en el que un fabricante casi dominante invierte en clientes que luego compran masivamente sus chips puede atraer atención antimonopolio, sobre todo combinado con su peso en el mercado de aceleradores de IA.

Esto se cruza con el Reglamento de IA de la UE (AI Act) y la Ley de Mercados Digitales (DMA): garantizar sistemas de IA fiables y mercados justos es difícil si la capa de cómputo está hiperconcentrada y financieramente entrelazada. No sería raro ver a Bruselas examinar más a fondo la integración vertical entre fabricantes de chips, nubes y grandes plataformas de modelos.

Para España y América Latina, donde el ecosistema cloud se reparte entre hyperscalers globales y proveedores regionales, la lección es similar: construir productos de IA en 2026 implica diseñar desde el inicio una estrategia multicloud y multichip. Y abre una ventana de oportunidad para actores locales –desde centros de datos en Madrid o Santiago hasta startups mexicanas o colombianas– que apuesten por arquitecturas alternativas (AMD, RISC‑V, futuros proyectos europeos) en lugar de limitarse a revender infraestructura Nvidia.

6. Mirando hacia adelante

El desenlace más probable no es un divorcio sonado, sino una coexistencia cada vez menos asimétrica.

Nvidia seguirá siendo el socio central de OpenAI para entrenar los modelos más avanzados: el ecosistema CUDA y las herramientas asociadas no se sustituyen de la noche a la mañana. Pero cada vez más cargas de inferencia –sobre todo las más sensibles a la latencia– se desplazarán hacia Cerebras, AMD y futuros ASIC propios. Eso reducirá poco a poco el peso de Nvidia en la parte más sensible a costes de la cadena de valor.

De cara a los próximos 12–24 meses, conviene vigilar tres indicadores:

  1. Capex de los hyperscalers (Microsoft, Google, AWS): ¿aumenta la inversión en chips propios o en alternativas?
  2. Márgenes brutos de Nvidia: un deterioro sostenido sugeriría que los clientes están ganando poder de negociación.
  3. Señales regulatorias en Estados Unidos y la UE sobre la concentración en infraestructura de IA y sobre inversiones “circulares”.

Para OpenAI, el mayor riesgo está en la ejecución: operar un parque heterogéneo de aceleradores hace que la orquestación, la programación y la fiabilidad sean problemas mucho más complejos. Si logra dominarlo, ganará una ventaja estructural de costes y de independencia. Si fracasa, se expone a incidencias, retrasos y un ciclo de producto más lento.

A escala de mercado, queda la gran incógnita: ¿crecerán los ingresos reales de la IA generativa al ritmo de la infraestructura desplegada? Si la monetización se queda corta, podríamos ver un exceso de capacidad –y la actual fiebre por las GPUs se parecería demasiado a la sobreconstrucción de centros de datos de la burbuja puntocom.

7. Conclusión

Los 100.000 millones que se han desvanecido no son solo un titular fallido: son una corrección de expectativas. Nvidia sigue siendo el rey del entrenamiento, pero el relato de una demanda infinita alimentada por inversiones circulares empieza a resquebrajarse. OpenAI actúa como una plataforma madura que reduce dependencias. Para Europa y el mundo hispanohablante, la enseñanza es clara: en IA, controlar el cómputo es controlar la estrategia. La cuestión es quién, además de Nvidia, será capaz de ejercer realmente ese control.

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.