Googles 40-Milliarden-Wette auf Anthropic: Warum der AI-Wettlauf zur Infrastruktur-Schlacht wird

24. April 2026
5 Min. Lesezeit
Reihen von Servern in einem Rechenzentrum mit Google- und Anthropic-Logos auf Monitoren

Googles 40-Milliarden-Wette auf Anthropic: Warum der AI-Wettlauf zur Infrastruktur-Schlacht wird

Wer verstehen will, wohin sich der Markt für generative KI entwickelt, muss nicht auf die nächste Modell-Demo schauen, sondern auf Strom- und Rechenverträge. Googles Zusage, bis zu 40 Milliarden US‑Dollar in Anthropic zu stecken – teils als Kapital, teils als Compute – markiert genau diesen Wendepunkt. Es geht nicht mehr primär um Algorithmen, sondern um Datacenter‑Kapazitäten in der Größenordnung mehrerer Kraftwerke. In diesem Beitrag beleuchten wir, was beide Seiten konkret gewinnen, wie sich das Kräfteverhältnis gegenüber OpenAI/Microsoft verschiebt und warum die DACH‑Region diesen Deal sehr ernst nehmen sollte.

Die Meldung in Kürze

Laut TechCrunch plant Google, Anthropic bis zu 40 Milliarden US‑Dollar in Form von Bargeld und Cloud‑Ressourcen bereitzustellen.

Anthropic gibt an, zunächst 10 Milliarden US‑Dollar zu erhalten – bei einer Bewertung von 350 Milliarden US‑Dollar. Weitere 30 Milliarden sollen fließen, wenn bestimmte Leistungsziele erreicht werden. Herzstück der Vereinbarung ist der enge Schulterschluss mit Google Cloud: Anthropic erhält Zugang zu rund 5 Gigawatt zusätzlicher Rechenkapazität über die nächsten fünf Jahre, basierend auf Googles KI‑Beschleunigern vom Typ TPU.

Damit wird ein früherer Deal erweitert, bei dem Anthropic gemeinsam mit Google und Broadcom bereits mehrere Gigawatt TPU‑Leistung ab 2027 gesichert hat; eine Broadcom‑Mitteilung nennt konkret 3,5 Gigawatt. Obendrauf kommt ein frisch ausgeweiteter Deal mit Amazon: TechCrunch berichtet, dass Amazon weitere 5 Milliarden US‑Dollar investiert und Anthropic langfristig bis zu 100 Milliarden US‑Dollar für rund 5 Gigawatt Compute auf AWS ausgeben soll.

Das Timing ist kein Zufall: Anthropic hat gerade sein neues Modell Mythos in einem begrenzten Partnerkreis eingeführt – laut Unternehmen das bislang leistungsfähigste Modell mit starkem Fokus auf Cybersecurity, aber hohen Betriebskosten.

Warum das wichtig ist

Dieser Deal macht brutal deutlich: Im Rennen um die führenden KI‑Modelle ist Rechenleistung die neue Leitwährung. Nicht mehr Paper auf Konferenzen oder einzelne Modelldurchbrüche entscheiden, sondern wer sich multi‑gigawattfähige Infrastrukturen leisten kann.

Anthropic ist kurzfristig der größte Profiteur. Das Unternehmen sichert sich Zugang zu massiver Compute‑Kapazität in einer Phase, in der High‑End‑Beschleuniger global knapp sind. Die Bewertung von 350 Milliarden US‑Dollar für die erste Tranche – und laut Bloomberg, auf das sich TechCrunch bezieht, Interesse an noch höheren Bewertungen – zeigt, dass führende KI‑Labs inzwischen wie kritische Infrastruktur bewertet werden.

Google wiederum verstärkt mit dem Deal seine strategische Position gleich an mehreren Fronten. Erstens bindet der Konzern Anthropic eng an Google Cloud und TPUs und schafft damit einen Ankerkunden, der Milliardeninvestitionen in eigene Chips und Rechenzentren rechtfertigt. Zweitens erhält Google tiefen Einblick in Trainings‑ und Betriebspraktiken eines der wichtigsten OpenAI‑Konkurrenten – ohne eine vollständige Übernahme zu riskieren, die Wettbewerbsbehörden auf den Plan rufen würde.

Verlierer sind vor allem jene, die diesen Kapitalseinsatz nicht mitgehen können: kleinere KI‑Startups, spezialisierte Modellanbieter, aber auch klassische Softwarehäuser, die auf eigene Modelle setzen wollten. Für sie verschiebt sich das Spielfeld in Richtung Plattform‑Ökonomie, in der wenige Hyperscaler die Hebel in der Hand halten.

Mittelfristig könnte auch Nvidia unter Druck geraten. Je mehr Google, Amazon und Co. ihre eigenen Beschleuniger in diesen Mega‑Deals verankern, desto weniger attraktiv werden generische GPUs im High‑End‑Segment. Noch ist die Nachfrage riesig, aber die strategische Richtung ist klar: Wer es sich leisten kann, baut die gesamte KI‑Stack – von der Hardware bis zum Modell – selbst.

Für Unternehmenskunden in Europa bedeutet das: Mehr Leistung zu teils attraktiveren Preisen, aber auch eine noch stärkere Abhängigkeit von wenigen US‑Anbietern.

Der größere Kontext

Der Google‑Anthropic‑Deal fügt sich nahtlos in eine Entwicklung ein, die sich bereits rund um OpenAI abzeichnet. Wie TechCrunch berichtet, hat OpenAI ein Netz aus Abmachungen mit Cloud‑Anbietern, Chipfertigern und Energieunternehmen gesponnen – mit Vertragsvolumina in dreistelliger Milliardenhöhe. Ziel ist es, den eigenen Bedarf an Rechenleistung und Strom langfristig abzusichern.

Historisch ist dieses Muster nicht neu. Im Mobilfunk haben Apple und Google durch vertikale Integration – eigene Chips, eigene Betriebssysteme, eigene App‑Stores – nahezu uneinnehmbare Positionen geschaffen. Im Cloud‑Computing dominierten AWS, Azure und Google Cloud durch massiven Kapitaleinsatz in Rechenzentren und Glasfasernetze. Jetzt sehen wir denselben Mechanismus im Bereich generativer KI, nur mit noch höherer Kapitalintensität.

Spannend ist der Vergleich zu anderen Strategien: Meta setzt mit Llama auf Open Source und versucht, einen breiten Ökosystem‑Effekt zu erzeugen. Das reduziert die direkte Kontrolle über die Infrastruktur, stärkt aber den eigenen Einfluss auf Modelle und Tools. Google und Anthropic wählen den Gegenpol: eine eng gekoppelte, proprietäre Stack mit TPUs, Google Cloud und geschlossenen Modellen.

Dazu kommt die Sicherheitsdimension. Mythos wird von Anthropic als hochleistungsfähiges Cybersecurity‑Werkzeug positioniert, doch TechCrunch verweist auf Berichte, wonach eine Variante bereits in nicht autorisierten Händen gelandet ist. Je spezialisierter und mächtiger diese Modelle werden, desto größer der Reiz – für Verteidiger wie Angreifer. Eine Handvoll US‑Unternehmen, die den Großteil dieser Fähigkeiten kontrolliert, schafft einen systemischen Single Point of Failure.

Für Wettbewerber wie Microsoft/OpenAI bedeutet der Deal zusätzlichen Druck, eigene Infrastruktur‑Deals weiter auszubauen – sei es durch exklusive Chip‑Partnerschaften oder durch noch engere Verzahnung von Azure mit OpenAI‑Diensten.

Die europäische und DACH‑Perspektive

Aus europäischer Sicht wirft der Deal gleich mehrere zentrale Fragen auf: Souveränität, Regulierung und Wettbewerbsfähigkeit.

Erstens unterstreicht er den Rückstand Europas bei Hyperscale‑Infrastruktur. Einzelne EU‑Projekte wie LUMI, Leonardo oder MareNostrum 5 sind beeindruckend, aber primär wissenschaftlich ausgerichtet. Kommerzielle KI‑Plattformen dieser Größenordnung fehlen. Ein einzelner Anthropic‑Vertrag über mehrere Gigawatt Compute übertrifft das, was viele nationale Strategien zur Förderung von Rechenzentren derzeit überhaupt anvisieren.

Zweitens steht Europa mit seinem Regulierungsrahmen in der Pflicht. Die EU‑KI‑Verordnung (AI Act) sieht spezifische Pflichten für sogenannte Basis‑Modelle mit hohem Einfluss vor – genau die Kategorie, in die Claude oder Mythos fallen dürften, sobald sie in der EU aktiv vermarktet werden. Hinzu kommen DSGVO, Digital Services Act und Digital Markets Act. Für Anthropic und Google bedeutet das: Wer europäische Kunden adressiert, muss Transparenz, Risikobewertungen und Governance‑Strukturen liefern, die weit über das hinausgehen, was in den USA verlangt wird.

Für Unternehmen im deutschsprachigen Raum – vom DAX‑Konzern bis zum Mittelständler – verstärkt sich damit das Grunddilemma: Auf der einen Seite stehen hochperformante Modelle, die über Google Cloud in EU‑Rechenzentren verfügbar sind. Auf der anderen Seite stehen Anforderungen an Datenschutz, Compliance und Lieferantenvielfalt, die in Deutschland, Österreich und der Schweiz traditionell hoch sind.

Lokale Alternativen wie die Gaia‑X‑Initiative, europäische Cloud‑Anbieter (z. B. OVHcloud, T‑Systems) oder nationale Hochleistungsrechner können einen Teil des Bedarfs abdecken, kommen aber derzeit weder an die Modellqualität noch an die Elastizität der großen US‑Stacks heran. Für viele deutsche Unternehmen wird die realistische Lösung ein Hybrid sein: sensible Daten und Kernprozesse auf souveränen Infrastrukturen, KI‑Services für weniger kritische Anwendungsfälle aus US‑Wolken.

Ausblick

Was ist in den nächsten 12 bis 24 Monaten zu erwarten?

Erstens wird sich die Frage zuspitzen, wie unabhängig Anthropic tatsächlich bleibt. TechCrunch berichtet, dass ein Börsengang bereits für den Herbst im Raum steht. Selbst als börsennotierte Gesellschaft wäre Anthropic aber in hohem Maße von Google und Amazon abhängig – finanziell wie infrastrukturell. Das könnte europäische und US‑amerikanische Wettbewerbsbehörden auf den Plan rufen, insbesondere vor dem Hintergrund des Digital Markets Act und bestehender Cloud‑Untersuchungen.

Zweitens dürfte der Wettbewerb um Entwickler und Unternehmenskunden härter werden. Mit zusätzlicher Compute‑Power kann Anthropic Nutzungsbeschränkungen lockern und aggressivere Preismodelle anbieten. In der Folge wäre eine Phase subventionierter KI‑Dienste denkbar, bei der Cloud‑Anbieter kurzfristig Marge opfern, um Marktanteile zu sichern – mit der Gefahr, dass kleinere Spezialisten aus dem Markt gedrängt werden.

Drittens wird die Energiedebatte in Europa an Schärfe gewinnen. Verträge im mehrgigawattigen Bereich berühren unmittelbar Klimaziele und Netzausbaupläne. Gerade in Deutschland, wo bereits heute über Strompreise und Netzstabilität diskutiert wird, werden neue KI‑Rechenzentren genau beobachtet werden. Politik und Regulierer werden stärker darauf achten, wie effizient diese Infrastrukturen sind und ob sie mit erneuerbaren Energien betrieben werden.

Viertens: Governance und Sicherheit. Wenn ein auf Cybersecurity optimiertes Modell wie Mythos zumindest teilweise nach außen dringt, stellt sich die Frage, wie man künftige, noch leistungsfähigere Modelle kontrolliert. Der AI Act fordert Evaluierungen, Dokumentation und Risikomanagement – doch die praktische Umsetzung bei transatlantischen Cloud‑Stacks wird kompliziert. Hier wird sich zeigen, wie ernst es der EU mit der Durchsetzung ist.

Für den DACH‑Mittelstand ergibt sich daraus sowohl Risiko als auch Chance. Risiko, weil eigene KI‑Ambitionen schnell von der Dynamik der Hyperscaler überrollt werden können. Chance, weil diejenigen, die frühzeitig eine klare Sourcing‑Strategie entwickeln – inklusive Exit‑Szenarien aus einzelnen Clouds – sich Wettbewerbsvorteile sichern können.

Fazit

Googles Zusage, bis zu 40 Milliarden US‑Dollar in Anthropic zu investieren, ist mehr als ein großer Scheck: Sie ist ein deutliches Signal, dass der Wettlauf um generative KI zur Infrastruktur‑Schlacht einer Handvoll US‑Konzerne geworden ist. Anthropic erhält die notwendige Rechen‑ und Finanzpower, Google zementiert seine Rolle als vertikal integrierter KI‑Anbieter. Für Europa und die DACH‑Region stellt sich damit die Frage, ob man eigene, wettbewerbsfähige Infrastrukturen und offene Ökosysteme aufbaut – oder akzeptiert, dass die digitale Wertschöpfung der Zukunft weitgehend in fremden Rechenzentren stattfindet. Wo positionieren Sie Ihr Unternehmen in diesem Spannungsfeld?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.