1. Überschrift und Einstieg
Im September 2025 klang es, als würde Nvidia mit einem Investment von bis zu 100 Milliarden US‑Dollar in OpenAI das Fundament der KI‑Infrastruktur neu gießen. Heute, fünf Monate später, ist von diesem Geld nichts zu sehen, die Zahl wird relativiert und OpenAI baut eifrig Alternativen zu Nvidia‑Chips auf. Das ist mehr als ein PR‑Missverständnis – es ist ein Lackmustest für den Zustand des KI‑Booms. Im Folgenden analysieren wir, was wirklich passiert ist, wie sich das Kräfteverhältnis verschiebt und welche Konsequenzen das für Europa und den DACH‑Raum hat.
2. Die Nachricht in Kürze
Wie Ars Technica berichtet, unterzeichneten Nvidia und OpenAI im September 2025 ein Letter of Intent, wonach Nvidia bis zu 100 Milliarden US‑Dollar in OpenAIs KI‑Infrastruktur investieren könnte. Geplant waren rund 10 Gigawatt an Nvidia‑Systemen – in etwa so viel wie die Leistung von zehn Kernkraftwerken.
Ein verbindlicher Vertrag ist bis heute jedoch nicht zustande gekommen. Nvidia‑Chef Jensen Huang erklärte inzwischen, die 100 Milliarden seien nie eine feste Zusage gewesen, sondern eine Obergrenze, und Nvidia werde schrittweise investieren. Laut Ars Technica, das sich auf Reuters und das Wall Street Journal stützt, sucht OpenAI derweil aktiv nach Alternativen: ein 10‑Milliarden‑Deal mit Cerebras, ein GPU‑Abkommen mit AMD und ein Projekt mit Broadcom für einen eigenen KI‑Chip.
Reuters berichtet zudem, OpenAI‑Ingenieure seien mit der Inferenzleistung bestimmter Nvidia‑GPUs – etwa bei Codex – unzufrieden gewesen und hätten Lösungen mit geringerer Latenz gesucht. Nach den Veröffentlichungen gab die Nvidia‑Aktie leicht nach, während beide Unternehmen öffentlich betonten, man arbeite weiterhin gerne zusammen.
3. Warum das wichtig ist
Der geplatzte Mega‑Deal legt eine zentrale Spannung des KI‑Zeitalters offen: Alle wollen Nvidias Margen, aber niemand will Nvidias Abhängigkeit.
Kurzfristig entgeht Nvidia einer riesigen, zirkulären Konstruktion, die schon zuvor Stirnrunzeln ausgelöst hatte: Man investiert in Kunden, damit diese anschließend noch mehr eigene Hardware kaufen. So lassen sich Umsätze und Wachstum optisch aufblasen, aber es entsteht die Frage, wie viel Nachfrage tatsächlich marktgetrieben ist und wie viel durch den Lieferanten vorfinanziert.
OpenAI sendet umgekehrt das Signal, dass eine dauerhafte Fixierung auf einen einzelnen GPU‑Anbieter strategisch zu riskant ist – selbst wenn dessen Chips die besten am Markt sind. Die Kooperationen mit Cerebras, AMD und Broadcom deuten auf eine bewusste Multi‑Vendor‑ und Multi‑Architektur‑Strategie, die Kosten, Latenz und Verhandlungsmacht optimieren soll.
Verlierer sind zunächst Spekulanten, die von einem linearen Durchmarsch Nvidias ausgegangen sind, sowie kleinere KI‑Infrastruktur‑Startups, die auf das „Nvidia finanziert euch, ihr kauft Nvidias GPUs“-Modell gesetzt haben. Wenn ausgerechnet OpenAI, der Parade‑Kunde, diesen Kreislauf teilweise verlässt, wird es schwerer, immer neue Ausbauwellen zu rechtfertigen.
Wichtiger noch: Der Nimbus der Unantastbarkeit bröckelt. Selbst die leistungsfähigsten GPUs sind an Strom, Latenz und Wirtschaftlichkeit gebunden – und an die Furcht der Kunden vor einem Single‑Vendor‑Lock‑in.
4. Das größere Bild
Historisch passt das in eine klare Linie: Wer KI als strategisch betrachtet, baut früher oder später eigene Chips.
Google hat seine TPUs, Amazon Inferentia und Trainium, Meta entwickelt eigene Beschleuniger. OpenAI war bisher in der Hardware‑Realität anderer gefangen – vor allem Microsofts Azure mit Nvidia‑GPUs. Das Broadcom‑Projekt für einen eigenen Chip und der Cerebras‑Deal sind die verspätete Antwort auf diese strukturelle Abhängigkeit.
Nvidia seinerseits hat ein Geschäftsmodell kultiviert, das auf Beteiligungen und garantierten Abnahmeverträgen basiert: Man beteiligt sich an KI‑Firmen, diese sichern im Gegenzug riesige GPU‑Kontingente, die dann als Beweis für „explodierende Nachfrage“ präsentiert werden. Kritiker sprechen zu Recht von einem synthetischen Nachfrage‑Flywheel, das an frühere Blasen erinnert, in denen Finanzierung und Konsum ungesund ineinandergriffen.
Dass ausgerechnet der 100‑Milliarden‑Deal mit OpenAI ins Stocken geraten ist, stellt dieses Flywheel infrage. Wenn der prominenteste Kunde der Branche die größte Version des Modells nicht mitspielt, bestätigt das indirekt, dass einige Prognosen zu optimistisch waren.
Branchenseitig ist der Vorgang Teil eines Trends: Der Fokus verschiebt sich von maximaler Rechenleistung zu effizient nutzbarer Rechenleistung. Das Training von Foundation‑Modellen bleibt GPU‑dominiert, doch im Masseneinsatz der Inferenz zählen Latenz, Energieeffizienz und Kosten pro Anfrage. Genau hier haben spezialisierte Beschleuniger und maßgeschneiderte ASICs die Chance, gegenüber universellen GPUs zu punkten. Der Nicht‑Deal Nvidia–OpenAI ist eines der deutlichsten Zeichen, dass diese Verschiebung eingesetzt hat.
5. Die europäische / DACH‑Perspektive
Für Europa ist die Lehre unbequem: Eine KI‑Strategie, die auf importiertem Silizium beruht, steht auf wackligem Fundament.
Europäische Cloud‑Anbieter und Startups sind stark von Nvidias Preis‑ und Lieferpolitik abhängig. Wenn selbst OpenAI mit Microsoft im Rücken diversifizieren muss, dann sollten hiesige Player mit weit weniger Verhandlungsmacht erst recht über Single‑Vendor‑Risiken nachdenken.
Aus Sicht der EU‑Wettbewerbshüter ist der Fall heikel. Die Kommission beobachtet bereits die Marktmacht der Hyperscaler; ein Modell, in dem ein nahezu dominanter Chip‑Hersteller massiv in seine Kunden investiert, die anschließend eben diese Chips im großen Stil abnehmen, schreit geradezu nach einer kartellrechtlichen Prüfung – insbesondere, wenn man die zentrale Rolle von Nvidia‑GPUs für moderne KI berücksichtigt.
In die Diskussion um EU AI Act und Digital Markets Act (DMA) fügt sich das Thema nahtlos ein: Vertrauen und Fairness im digitalen Raum sind schwer herzustellen, wenn die Recheninfrastruktur konzentriert und finanziell verflochten ist. Es wäre keine Überraschung, wenn Brüssel verstärkt auf vertikale Integration zwischen Chip‑Herstellern, Clouddiensten und KI‑Plattformen blickt.
Für die DACH‑Region – von Hyperscalern wie der Telekom und europäischen Anbietern wie OVH, Hetzner oder IONOS bis hin zu Berliner und Münchner KI‑Startups – lautet die Botschaft: Diversifikation ernst nehmen. Nationale Initiativen wie die deutschen und französischen „Sovereign Cloud“-Projekte oder das europäische Exascale‑Vorhaben mit SiPearl sollten systematisch alternative Architekturen (AMD, RISC‑V, europäische Beschleuniger) evaluieren, statt stillschweigend alles auf Nvidia zu setzen.
6. Blick nach vorn
Am wahrscheinlichsten ist ein Szenario der Koexistenz mit schleichender Erosion.
Nvidia bleibt auf absehbare Zeit der Standard für das Training der größten Modelle – der Software‑Stack rund um CUDA und die Entwickler‑Ökosysteme sind extrem träge zu ersetzen. Parallel dazu wird OpenAI jedoch immer mehr Inferenz‑Workloads – insbesondere mit strengen Latenzanforderungen – auf Cerebras, AMD und künftige eigene ASICs verschieben. Für Nvidia bedeutet das: weniger Kontrolle über den kostenkritischen Teil der Wertschöpfungskette.
Beobachter sollten in den kommenden 12–24 Monaten vor allem drei Signale im Auge behalten:
- Capex‑Pläne der Hyperscaler (Microsoft, Google, AWS): Wie stark wachsen die Budgets für eigene bzw. alternative Chips?
- Entwicklung der Bruttomargen bei Nvidia: Anhaltender Druck nach unten wäre ein deutliches Zeichen für wachsende Kundenmacht.
- Regulatorische Initiativen in EU und USA, die sich explizit auf KI‑Infrastruktur, vertikale Integration oder vendor‑finanzierte Nachfrage beziehen.
Für OpenAI liegt das größte Risiko im Betrieb: Ein heterogener Hardware‑Fuhrpark macht Orchestrierung, Scheduling und Fehlertoleranz erheblich komplexer. Gelingt das, gewinnt OpenAI dauerhafte Kosten‑ und Verhandlungsvorteile. Misslingt es, drohen Instabilität und eine Verlangsamung der Produktentwicklung.
Makroökonomisch bleibt die Frage, ob die reale Monetarisierung von Generativer KI mit dem Ausbautempo der Infrastruktur Schritt hält. Wenn nicht, droht ein Überhang an Kapazitäten – und der aktuelle GPU‑Rausch könnte rückblickend an die überdimensionierten Rechenzentren der Dotcom‑Ära erinnern.
7. Fazit
Das verschwundene 100‑Milliarden‑Versprechen ist kein Detailfehler in der Kommunikation, sondern eine Zurechtrückung der Realität. Nvidia bleibt unangefochtener Trainings‑Champion, doch das Narrativ der grenzenlosen, durch Beteiligungen befeuerten Nachfrage beginnt zu bröckeln. OpenAI verhält sich wie eine gereifte Plattform, die Abhängigkeiten aktiv reduziert. Für europäische Unternehmen lautet die Lehre: Kontrolle über Compute ist strategisch – und wer sie allein Nvidias Bilanz überlässt, verzichtet auf Gestaltungsmacht in der KI‑Ökonomie.


