Googles 40-Milliarden-Wette auf Anthropic: Wer die Rechenzentren kontrolliert, kontrolliert die KI

25. April 2026
5 Min. Lesezeit
Reihen von Serverracks mit Google-TPU-Beschleunigern in einem Rechenzentrum

1. Überschrift und Einstieg

Googles geplante Investition von bis zu 40 Milliarden US‑Dollar in Anthropic ist weniger eine romantische Wette auf „die beste KI“, sondern eine knallharte Machtverschiebung im Cloud-Geschäft. Nur wenige Tage zuvor hat Amazon ebenfalls Milliarden in dasselbe Start-up gesteckt. Anthropic ist damit zum begehrtesten KI-Asset außerhalb von OpenAI geworden. In diesem Kommentar beleuchte ich, was Google tatsächlich kauft, wie sich das Kräfteverhältnis zwischen den Hyperscalern verschiebt, warum das für Unternehmen im DACH-Raum relevant ist – und an welcher Stelle Brüssel und Berlin eingreifen könnten.

2. Die Nachrichten in Kürze

Laut Ars Technica, die sich auf Bloomberg beruft, will Google mindestens 10 Milliarden US‑Dollar in Anthropic investieren; bei Erreichen bestimmter Leistungsziele kann der Betrag auf bis zu 40 Milliarden steigen. Amazon hat wenige Tage zuvor einen anfänglichen Betrag von 5 Milliarden zugesagt – ebenfalls leistungsabhängig strukturiert.

Beide Investments bewerten Anthropic dem Bericht zufolge mit rund 350 Milliarden US‑Dollar – bemerkenswert für ein Unternehmen, das erst seit wenigen Jahren am Markt aktiv ist. Im Gegenzug erhält Anthropic Zugriff auf große Cloud-Kapazitäten und spezialisierte Chips von Google und Amazon, um seine Claude-Modelle sowie Produkte wie Claude Code und Claude Cowork zu trainieren und zu betreiben. Aufgrund des sprunghaften Nachfrageanstiegs kam es zuletzt zu Überlastungen, Limits und Ausfällen. Die Struktur erinnert an andere Deals: Hyperscaler finanzieren KI-Labs und sichern sich im Gegenzug deren Workloads für die eigene Cloud.

3. Warum das wichtig ist

Im Kern geht es hier nicht um ein einzelnes Sprachmodell, sondern um die Frage: Wer besitzt die Fabriken der KI-Zukunft? Datenzentren und Beschleunigerchips sind die neuen Kraftwerke, und Google kauft sich mit Anthropic einen Großabnehmer auf Jahrzehnte.

Gewinner:

  • Anthropic erhält massiven Kapitalzufluss und – fast wichtiger – priorisierten Zugang zu knappen Rechenressourcen.
  • Google Cloud stärkt seine Position gegenüber AWS und Azure mit einem prominenten KI-Aushängeschild.
  • Großkunden, die auf Claude setzen, dürfen hoffen, dass Kapazitätsengpässe und Warteschlangen mittelfristig abnehmen.

Verlierer:

  • Kleinere KI-Unternehmen, die auf dieselben Chips angewiesen sind, geraten weiter ins Hintertreffen, weil Hyperscaler ihren „VIP-Kunden“ Vorrang einräumen.
  • Unabhängige Cloud-Provider in Europa oder On-Prem-Lösungen müssen gegen Investitionsvolumina antreten, die sie realistisch nicht erreichen können.

Strategisch betrachtet diversifiziert Google sein eigenes Modellportfolio. Neben Gemini entsteht mit Anthropic ein zweites, teilweise unabhängiges „Triebwerk“. Gefällt Unternehmenskunden der Sicherheits- und Governance-Fokus von Claude besser, profitiert Google indirekt mit. Gleichzeitig verhindert man, dass Anthropic vollständig in Amazons Ökosystem aufgeht.

Die eigentliche Botschaft lautet: Im Bereich „Frontier-KI“ gibt es nur noch drei Rollen – Hyperscaler, angehängtes KI-Labor oder Kunde. Wer Modelle baut, braucht heute derart viel Kapital und Compute, dass der Weg in die Arme eines großen Cloud-Anbieters fast zwangsläufig erscheint.

4. Das größere Bild

Mit Google–Anthropic, Microsoft–OpenAI und Amazon–Anthropic zeichnet sich das Dreieck ab, das die nächsten Jahre der KI-Industrie prägen dürfte. Microsoft hat OpenAI praktisch zum Innovationslabor und Premium-Mandanten von Azure gemacht. Amazon versucht nun, wenigstens einen „Gegenpol“ an Bord zu holen, falls Anthropic langfristig zum zweiten großen Namen neben OpenAI wird. Google reagiert mit einer massiven Gegenwette.

Das fügt sich in mehrere Branchentrends ein:

  1. Compute ist der neue Engpass.
    Der Fortschritt stammt weniger aus eleganten Tricks, sondern aus immer größeren Trainingsläufen. Die limitierende Ressource sind nicht mehr primär Forscher, sondern Rechenzentren, Strom und Beschleuniger. Equity‑gegen‑Compute ist der dominierende Deal-Typ.

  2. Verstärkung eines Oligopols.
    Statt mehr Vielfalt verfestigt sich die Macht der drei großen US-Clouds. Frontier-Modelle laufen überwiegend auf Azure, AWS oder Google Cloud. Selbst wenn der Modellanbieter rechtlich unabhängig bleibt, ist er faktisch hochgradig abhängig.

  3. Modelle werden zur Cloud-Funktion.
    Für viele Unternehmen ist nicht „Claude vs. GPT“ die zentrale Frage, sondern „auf welchen Cloud-Stack standardisieren wir?“ Sprachmodelle sind dann nur noch eine Zeile in der Preisliste neben Datenbanken, Storage und Security.

Historisch gibt es Parallelen zur Smartphone-Ära: Wer Apps bauen wollte, kam an iOS und Android kaum vorbei. Heute sind es eben die Hyperscaler – nur mit deutlich höheren Eintrittsbarrieren und weitreichenderen Folgen. Denn auf diesen KI-Stacks werden künftig Bankensoftware, Fertigungsprozesse oder Gesundheitsanwendungen aufsetzen.

5. Der europäische und DACH-spezifische Blick

Für Europa ist der Deal ein weiterer Beleg dafür, dass der Kontinent bei grundlegender KI-Infrastruktur vor allem Importeur ist. Ein US-Start-up, getragen von US-Techkonzernen, wird zu einem zentralen Baustein für Anwendungen, die in Berlin, München, Zürich oder Wien entstehen.

Das kollidiert mit den politischen Zielen in Brüssel: EU AI Act, GDPR, Digital Markets Act (DMA) und Digital Services Act (DSA) zielen auf weniger Marktmachtkonzentration und mehr Kontrolle über kritische Plattformen. Die technische Realität läuft in die Gegenrichtung: Rechenleistung und Modelle bündeln sich bei wenigen US-Anbietern.

Zwar gibt es europäische Alternativen – etwa Aleph Alpha in Heidelberg, Mistral AI in Paris oder kleinere Open-Source-Initiativen – doch auch sie greifen häufig auf US-Chips und US-Clouds zurück. Akteure wie OVHcloud, IONOS, Deutsche Telekom oder Swisscom bauen ihre KI-Angebote aus, aber ihnen fehlen die zweistelligen Milliardenbeträge, um eigene TPU- oder GPU-Farmen in dieser Größenordnung hochzuziehen.

Für datenschutzsensiblere Märkte wie Deutschland, Österreich oder die Schweiz hat Claude zugleich Charme und Risiko: Der starke Fokus von Anthropic auf Sicherheit und Kontrollmechanismen passt gut zur lokalen Compliance-Kultur. Doch eine noch engere Verflechtung mit Google Cloud verschärft die ohnehin heikle Frage der digitalen Souveränität.

Es wäre keine Überraschung, wenn die EU-Kommission und nationale Wettbewerbsbehörden solche KI–Cloud-Deals stärker wie vertikale Fusionen behandeln – inklusive möglicher Auflagen zu Interoperabilität, Datenportabilität oder Beschränkungen bei Exklusivklauseln.

6. Ausblick

In den nächsten 12 bis 24 Monaten werden mehrere Punkte entscheidend:

  1. Wie „multi-cloud“ ist Anthropic tatsächlich?
    Offiziell arbeitet man mit Amazon und Google. Vertragsdetails – Mindestabnahmemengen, Rabatte, technische Abhängigkeiten – werden zeigen, ob Anthropic realistische Ausweichmöglichkeiten hat oder ob es sich im Wesentlichen um einen Wechsel zwischen zwei US-Anbietern handelt.

  2. Regulatorische Reaktion in der EU und im Vereinigten Königreich.
    Nach den Erfahrungen mit Big Tech im Werbemarkt und bei mobilen Betriebssystemen ist der politische Druck groß, ähnliche Fehler nicht zu wiederholen. Die laufenden Untersuchungen zu Microsoft–OpenAI könnten Blaupause für den Umgang mit Google–Anthropic werden.

  3. Differenzierung jenseits der rohen Modellqualität.
    Wenn Claude, Gemini und GPT bei Benchmarks eng beieinander liegen, werden Governance, Auditierbarkeit, Preismodelle und regionale Datenspeicherung zu den echten Unterscheidungsmerkmalen – gerade für den stark regulierten DACH-Markt.

  4. Das Risiko einer Überinvestition.
    Sollten Hyperscaler die Nachfrage nach KI-Leistung überschätzen, droht ein Zyklus mit Überkapazitäten. Kurzfristig wäre das eine gute Nachricht für Unternehmen – sinkende Preise, bessere Verhandlungsmacht –, langfristig könnte es aber auch zu einer noch stärkeren Marktkonsolidierung führen.

Für CIOs im DACH-Raum lautet die pragmatische Schlussfolgerung: KI wird sich auf wenige Plattformen konzentrieren, daran führt kaum ein Weg vorbei. Entscheidender als die Wahl eines „Lieblingsmodells“ ist jetzt eine Architektur, die Multi-Cloud-Strategien, Abstraktionsschichten und Portabilität von Workloads berücksichtigt.

7. Fazit

Googles mögliche 40-Milliarden-Investition in Anthropic ist in erster Linie ein Machtzug im Cloud-Oligopol – nicht die selbstlose Förderung von KI-Forschung. Anthropic wird damit zu einem ernsthaften Gegengewicht zu OpenAI, doch gleichzeitig verfestigt sich die Abhängigkeit der europäischen Wirtschaft von einer Handvoll US-Hyperscaler, die über den Zugang zu Rechenleistung bestimmen. Die zentrale Frage für Politik und Unternehmen im DACH-Raum bleibt: Nutzen wir diese Abhängigkeit möglichst klug – oder investieren wir endlich ernsthaft in eigene, belastbare Alternativen?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.