1. Überschrift und Einstieg
Wenn ein KI‑Labor plötzlich Strommengen in Gigawatt‑Größenordnung bucht, bewegen wir uns nicht mehr im klassischen Software‑Geschäft, sondern im Bereich kritischer Infrastruktur. Anthropic hat mit Google und Broadcom genau das getan. Dieser Schritt zeigt, wohin sich die Branche entwickelt: Das Nadelöhr sind nicht mehr clevere Algorithmen, sondern Rechenzentren, Stromnetze und proprietäre Chips. In dieser Analyse geht es darum, wie der 3,5‑GW‑Deal die Machtverhältnisse im KI‑Markt verschiebt – und welche Fragen sich damit für Europa und die datenschutz‑sensiblen DACH‑Märkte stellen.
2. Die Nachricht in Kürze
Laut einem Bericht von TechCrunch hat Anthropic eine erweiterte Infrastrukturvereinbarung mit Google und Broadcom unterzeichnet, um die Rechenkapazität für seine Claude‑Modelle massiv auszubauen.
Der neue Vertrag vergrößert die Nutzung von Googles Cloud‑TPUs (Tensor Processing Units) und baut auf einem Abkommen aus Oktober 2025 auf, das bereits mehr als ein Gigawatt Compute‑Kapazität umfasste. Aus einer aktuellen SEC‑Meldung von Broadcom geht hervor, dass sich die neue Vereinbarung auf rund 3,5 Gigawatt derartigen Kapazitätsbedarfs beläuft, der überwiegend in den USA bereitgestellt werden soll. Anthropic ordnet dies seiner bereits bekannten Zusage zu, rund 50 Milliarden US‑Dollar in US‑amerikanische Compute‑Infrastruktur zu investieren.
Die zusätzlichen Kapazitäten sollen 2027 verfügbar werden. TechCrunch berichtet weiter, dass Anthropics annualisierte Umsatzerlöse inzwischen bei 30 Milliarden US‑Dollar liegen – ein deutlicher Sprung gegenüber 9 Milliarden Ende 2025. Über 1.000 Unternehmenskunden geben demnach jeweils mehr als eine Million Dollar pro Jahr aus. Zudem habe Anthropic eine Finanzierungsrunde der Serie G über 30 Milliarden Dollar zu einer Bewertung von 380 Milliarden Dollar abgeschlossen, obwohl das US‑Verteidigungsministerium das Unternehmen als Risiko in der Lieferkette einstuft.
3. Warum das wichtig ist
Anthropic sichert sich nicht nur Rechenleistung, sondern ein Stück Stromnetz.
Für Anthropic bedeutet der Schritt Planungssicherheit in einer Branche, in der Hochleistungs‑Chips und geeignete Rechenzentren zum Engpass geworden sind. Wer heute Multi‑Milliarden‑Modelle trainieren und Millionen Nutzer bedienen will, braucht gesicherte Kapazitäten über Jahre. Mit einem Gigawatt‑Vertrag kauft man sich nicht nur Hardware, sondern auch Verhandlungsmacht gegenüber Kunden und Investoren: Man signalisiert, dass man zur dauerhaften Spitzengruppe der „Frontier Labs“ gehören will.
Google Cloud profitiert in mehrfacher Hinsicht. Erstens bindet sich ein prominenter KI‑Anbieter noch enger an die eigene Infrastruktur und das TPU‑Ökosystem – ein Gegenpol zu Nvidias GPU‑Dominanz. Zweitens verbessert sich die Auslastung neuer Rechenzentren, was immense Vorab‑Investitionen rechtfertigt. Broadcom wiederum sichert sich langfristiges Volumen für kundenspezifische ASICs und Netzwerktechnik.
Auf der Verliererseite stehen kleinere KI‑Anbieter, europäische Cloud‑Spezialisten und alle, die nicht über vergleichbare Kapital‑ und Einkaufsmacht verfügen. Wenn Rechenkapazität in Gigawatt‑Paketen an wenige Hyperscaler vergeben wird, steigen die Eintrittsbarrieren für ernsthafte Konkurrenz. Selbst große europäische Konzerne, die eigene Rechenzentren betreiben, werden es schwer haben, ähnliche Effizienz und Skaleneffekte zu erreichen.
Hinzu kommt ein systemisches Risiko: Die kritische Ressource verschiebt sich von „Daten“ hin zu „Compute“. Wer die großen Kapazitäten kontrolliert, hat einen Hebel über Innovation, Preise und letztlich auch über gesellschaftlich relevante Anwendungen von KI – von Gesundheitswesen bis Verwaltung. Damit wird aus einer technischen eine ordnungs‑ und sicherheitspolitische Frage.
4. Das große Bild
Der Anthropic‑Deal ist Teil eines klaren Musters: KI skaliert in Richtung Schwerindustrie.
Microsoft/OpenAI, Amazon/Anthropic, jetzt Google/Anthropic mit deutlich verstärkter Bindung – jede große Cloud‑Plattform sucht sich „ihr“ Labor und spannt es an die eigene Infrastruktur. Die Währung dieser Partnerschaften sind nicht mehr nur Lizenzgebühren oder API‑Umsätze, sondern mehrjährige Zusagen für Rechenzentren, Energie und Chip‑Entwicklung.
Das erinnert an andere Infrastruktursektoren. In der Telekommunikation haben Lizenzvergabe und Netzausbau enorme Mindestgrößen erzwungen. Im Cloud‑Geschäft haben sich nach einer wilden Anfangsphase drei Hyperscaler (AWS, Azure, Google Cloud) als de‑facto‑Oligopol etabliert. KI scheint denselben Weg zu gehen – nur schneller und mit höherem Energiebedarf.
Spannend ist der technologische Unterton. Google setzt mit TPUs und enger Zusammenarbeit mit Broadcom auf ein vertikal integriertes Stack, bei dem Hardware und Software fein aufeinander abgestimmt sind. Das steht im Kontrast zu Nvidias universeller GPU‑Plattform, die lange Zeit Standard war. Wenn Anthropic mit diesem Ansatz erfolgreich bleibt, könnten wir eine Fragmentierung des Marktes sehen: verschiedene proprietäre „KI‑Stacks“, die jeweils einen ganzen Ökosystem‑Korridor (Chips, Frameworks, Cloud‑Dienste) definieren.
Für Unternehmen bedeutet das: Die Wahl des Modells ist zunehmend gleichbedeutend mit der Wahl eines Infrastrukturanbieters – mit allen Folgen für Datensouveränität, Portierbarkeit und Verhandlungsmacht.
5. Die europäische / DACH‑Perspektive
Aus Sicht Europas und speziell des DACH‑Raums ist die geografische Verteilung der 3,5 GW mindestens so relevant wie die technische.
Wenn der Großteil der neuen Kapazitäten in den USA steht, bedeutet das: Europäische Nutzer von Claude hängen indirekt am US‑Stromnetz, an US‑Behörden und Exportkontrollen. Für Unternehmen in Deutschland, Österreich und der Schweiz, die ohnehin großen Wert auf Compliance und Datensouveränität legen, ist das ein Spannungsfeld.
Gleichzeitig setzt der EU‑Regulierungsrahmen enge Leitplanken. Die DSGVO begrenzt, wie Trainingsdaten erhoben und verarbeitet werden dürfen. Der Digital Services Act und der Digital Markets Act regulieren Plattformmacht und Selbstbevorzugung. Der EU AI Act bringt zusätzliche Auflagen für Anbieter von Basismodellen mit sich – etwa Dokumentations‑ und Transparenzpflichten. Anthropic muss diese Vorgaben erfüllen, wenn Claude in der EU großflächig eingesetzt werden soll, unabhängig davon, ob die Rechenzentren in Virginia oder Frankfurt stehen.
Für europäische Cloud‑Anbieter wie Deutsche Telekom, OVHcloud, IONOS oder lokale Provider in der Schweiz stellt sich die Frage: Positionieren sie sich als „souveräne“ Alternative mit kleinerer, aber EU‑konformer Infrastruktur? Oder integrieren sie einfach amerikanische Modelle über Partnerschaften und akzeptieren damit eine gewisse strukturelle Abhängigkeit?
Nicht zu unterschätzen ist der Energie‑Aspekt. Deutschland diskutiert seit Jahren über Strompreise, Netzausbau und Ausstieg aus fossilen Quellen. Wenn KI‑Rechenzentren in Größenordnungen planen, die mit mittelgroßen Kraftwerken vergleichbar sind, wird die Frage unausweichlich: Wollen wir solche Lasten in Europa haben – mit entsprechender Umwelt‑ und Standortpolitik – oder sie lieber „importieren“, indem wir US‑Rechenzentren nutzen und uns damit aus der Wertschöpfungskette verabschieden?
6. Blick nach vorn
Was ist in den nächsten Jahren zu erwarten?
Erstens werden wir einen stärkeren Fokus auf Energie‑ und Effizienzkennzahlen sehen. Bisher wird KI meist nach Parametern und Benchmarks bewertet. Wenn einzelne Akteure jedoch Gigawatt‑Blöcke binden, werden CO₂‑Fußabdruck, PUE‑Werte (Power Usage Effectiveness) und Standortwahl zum Wettbewerbsfaktor – und zum Gegenstand politischer Debatten.
Zweitens dürfte sich der Markt weiter in zwei Segmente aufspalten. Ganz oben einige wenige „KI‑Versorger“, die sich durch extreme Skala, enge Cloud‑Bindung und streng regulierte Nutzung auszeichnen. Darunter ein breites Feld aus kleineren, oft offenen Modellen, die auf regionaler Infrastruktur laufen und spezifische Branchen‑ oder Sprachbedürfnisse bedienen – gerade im DACH‑Raum mit seinen besonderen Datenschutz‑ und Compliance‑Anforderungen.
Drittens werden sich Unternehmen in Deutschland, Österreich und der Schweiz stärker mit Multi‑Cloud‑ und Multi‑Model‑Strategien beschäftigen müssen. Wer heute ausschließlich auf einen US‑Hyperscaler setzt, läuft Gefahr, in ein proprietäres Ökosystem eingeschlossen zu werden, aus dem man später nur mit hohen Migrationskosten herauskommt.
Zeitlich ist zu erwarten, dass die politischen Reaktionen der technischen Entwicklung hinterherhinken. Während Anthropic und andere Labs heute Kapazitäten für 2027 und darüber hinaus sichern, werden Wettbewerbs‑ und Energieregulierer in den nächsten Jahren erst beginnen, diese Deals systematisch zu analysieren – ähnlich wie es bei großen Fusionswellen in anderen Industrien der Fall war.
7. Fazit
Anthropics 3,5‑GW‑Deal mit Google und Broadcom markiert einen Wendepunkt: KI verlässt die Welt der „leichteren“ Software‑Services und betritt die Liga energieintensiver Grundstoff‑Industrien. Wer die Rechen‑ und Stromkapazitäten kontrolliert, kontrolliert zunehmend auch die Innovationsgeschwindigkeit. Für Europa und die DACH‑Region stellt sich die Frage, ob man diese Entwicklung vor allem beobachtet – und US‑Infrastruktur nutzt – oder ob man eigene, wenn auch kleinere, souveräne Alternativen aufbaut. Die Weichen werden heute gestellt, die Auswirkungen werden uns noch ein Jahrzehnt beschäftigen.



