Der neue Milliardenvertrag zwischen Google Cloud und Thinking Machines Lab ist mehr als ein weiterer GPU-Einkauf. Er macht sichtbar, wo heute die eigentliche Macht in der KI sitzt: nicht bei den Modellen selbst, sondern bei den wenigen Unternehmen, die Hochleistungsrechenzentren, Chips und Energie skalieren können. Für den deutschsprachigen Raum – von Berliner Startups bis hin zu DAX-Konzernen – ist das eine unbequeme Erinnerung daran, wie abhängig ambitionierte KI-Pläne von US-Infrastruktur geworden sind.
Im Folgenden ordne ich die TechCrunch-Meldung ein, erkläre Googles Strategie, vergleiche sie mit Microsoft und Amazon und skizziere, was das für Europas Cloud-Souveränität und kommende EU-Regulierung bedeutet.
Die Nachricht in Kürze
Laut einem exklusiven Bericht von TechCrunch hat Thinking Machines Lab, gegründet 2025 von der früheren OpenAI-Technikchefin Mira Murati, einen neuen mehrjährigen Vertrag mit Google Cloud unterzeichnet. Ein mit der Angelegenheit vertrauter Informant beziffert das Volumen auf einen einstelligen Milliardenbetrag in US-Dollar.
Die Vereinbarung umfasst den Zugang zu Googles KI-Infrastruktur auf Basis der neuesten Nvidia-GB300-GPUs. Google spricht von etwa doppelt so hoher Trainings- und Inferenzgeschwindigkeit im Vergleich zur Vorgängergeneration. Zusätzlich erhalten die Forschenden ein Paket aus Cloud-Diensten wie Storage, Kubernetes Engine und der Datenbank Spanner, optimiert für rechenintensive Reinforcement-Learning-Workloads.
Thinking Machines hatte bereits zuvor eine Partnerschaft mit Nvidia geschlossen, inklusive einer Beteiligung des Chip-Herstellers. Der jetzt bekannt gewordene Vertrag ist allerdings die erste Kooperation mit einem großen Cloud-Anbieter und ausdrücklich nicht exklusiv.
Das Labor brachte im Oktober 2025 sein erstes Produkt auf den Markt: Tinker, ein Tool, das die Erstellung kundenspezifischer Frontier-Modelle weitgehend automatisiert. Der neue Google-Deal gibt einen seltenen Einblick, dass dabei stark auf Reinforcement Learning gesetzt wird.
Warum das relevant ist
Dieser Vertrag ist strategisch aus mehreren Gründen bedeutsam.
Erstens sichert sich Google früh einen potenziellen Schlüsselspieler der nächsten Frontier-Welle. Thinking Machines vereint Hochglanz-Personalie (Murati), massives Kapital (Seed-Runde von 2 Milliarden Dollar bei 12-Milliarden-Bewertung, wie TechCrunch erinnert) und eine Produktvision, die von Natur aus extrem rechenhungrig ist. Tinker soll nicht nur ein Modell liefern, sondern eine Fabrik für Modelle sein. Wer diese Fabrik hostet, profitiert langfristig.
Zweitens sendet Google ein Signal in Richtung Microsoft und Amazon. Microsoft hat sich über OpenAI eine starke, fast symbiotische Position im Frontier-Segment gesichert. Amazon bringt sich mit Anthropic in Stellung. Google wiederum hat zwar mit DeepMind interne Forschung von Weltklasse, aber externe Vorzeige-Kunden fehlten bislang teilweise. Thinking Machines füllt genau diese Lücke und demonstriert, dass Google Cloud auch für die härtesten Workloads erste Wahl sein kann.
Drittens verschiebt der Deal den Fokus dorthin, wo das eigentliche Nadelöhr liegt: Rechenressourcen. Modelle, Datensätze, sogar Talente sind inzwischen global verfügbarer als früher. Ein zweistelliger Milliardenkredit für GPUs, modernste Rechenzentren mit ausreichend Stromanschluss und Kühlung – das ist die eigentliche Eintrittsbarriere. Wer keinen Zugang zu solcher Infrastruktur hat, kann im Frontier-Rennen faktisch nicht mitspielen.
Verlierer:innen sind kleinere Cloud-Anbieter und offene Ökosysteme. Wenn Labore wie Thinking Machines oder Anthropic langfristige Verträge über mehrere Gigawatt Rechenleistung mit US-Hyperscalern schließen, bleiben für europäische Provider oder akademische Rechenzentren vor allem Nischen übrig: Compliance, Spezialbranchen, regionale Datenhaltung.
Der größere Kontext
Googles neuer Pakt fügt sich in eine Serie von Entwicklungen: Microsoft mit OpenAI, Google und Amazon mit Anthropic, nun Google mit Thinking Machines. Alle diese Abkommen folgen demselben Muster: Der Cloud-Anbieter verpflichtet sich zu massiven, planbaren Kapazitäten – oft inklusive enger Kooperation mit Chip-Herstellern – und erhält im Gegenzug einen Anchor-Tenant, der die Infrastruktur voll auslastet.
Cloud verhält sich damit immer mehr wie ein Versorgungsunternehmen. Statt rein nutzungsbasierter Abrechnung werden langfristige Kapazitätszusagen wichtig, inklusive eigener Stromlieferverträge, Wärmerückgewinnung und Standortpolitik. Besonders bei Reinforcement Learning ist das relevant: Hier sind Trainingsläufe weniger vorhersehbar, explorativer und damit schwerer zu optimieren als klassische Batch-Jobs.
Spannend ist, dass Google im Zusammenhang mit Thinking Machines explizit Reinforcement Learning hervorhebt. Dieser Ansatz war zwar schon bei DeepMinds Spiele-Erfolgen zentral, fristete im Unternehmenskontext aber oft ein Nischendasein. Wenn nun ein Frontier-Lab wie Thinking Machines seine Architektur darauf aufbaut, deutet das auf einen Richtungswechsel hin: weg vom reinen Scale-up klassischer Sprachmodelle, hin zu Agenten und Meta-Systemen, die selbstständig Strategien und sogar neue Modelle entwickeln.
Das verschärft allerdings auch den Ressourcenhunger. Systeme, die die Welt in vielen Schritten erkunden oder das Verhalten anderer Modelle steuern, kosten um Größenordnungen mehr Rechenzeit. Wer darauf setzt, wird zwangsläufig enger an die wenigen Anbieter mit genug Hardware und Energie gebunden.
Im Wettbewerbsvergleich zeigt sich: Nvidia sitzt komfortabel in der Mitte. Egal ob die Kapazität über Googles Tensor Processing Units oder über Nvidias GPUs bereitgestellt wird, die Abhängigkeit von einer sehr kleinen Zahl von Chip-Designern und Foundries ist offensichtlich. Für die Branche erinnert das unangenehm an frühere Monokulturen – nur dass es diesmal nicht um Betriebssysteme, sondern um Silizium geht.
Die europäische und DACH-Perspektive
Für Europa, und speziell die DACH-Region, stellt sich eine einfache Frage: Wollen wir wirklich, dass die Schlüsselressource der nächsten Technologiewelle fast vollständig über US-Konzerne und US-Chips läuft?
Regulatorisch ist die EU aktiv: Die Datenschutz-Grundverordnung hat den Umgang mit Daten weltweit geprägt, das Digitale-Dienste-Gesetz und das Digitale-Märkte-Gesetz setzen große Plattformen unter Druck, und der AI Act schafft einen Rahmen für Hochrisiko- und Basismodelle. Doch all diese Initiativen adressieren primär Verhalten und Produkte – weniger die physische Infrastruktur darunter.
In Deutschland und der Schweiz gibt es zwar starke Debatten über Datenlokalisierung und Cloud-Souveränität, etwa in Form von GAIA-X, sowie Projekte rund um vertrauenswürdige Cloud-Angebote der Telekommunikationsanbieter. EuroHPC-Supercomputer wie LUMI, JUWELS oder Leonardo stellen beachtliche Rechenressourcen bereit. Trotzdem fällt es diesen Initiativen schwer, mit der Geschwindigkeit, Flexibilität und dem Investitionsvolumen der Hyperscaler mitzuhalten.
Besonders pikant ist die Lage mit Blick auf den Datenschutz: Viele deutsche Unternehmen zögern aus guten Gründen, sensible Daten in US-Clouds zu verschieben – Stichwort Schrems-II-Urteile und unklare Rechtslage zu US-Überwachung. Gleichzeitig bündeln sich die fortschrittlichsten KI-Werkzeuge und -Modelle eben genau dort. Das erzeugt ein Dilemma zwischen Compliance und Wettbewerbsfähigkeit.
Europäische Anbieter wie OVHcloud, Scaleway, IONOS oder Swisscom Cloud könnten hier eigentlich punkten, doch ihnen fehlt oft der Zugang zu den neuesten GPU-Generationen in ausreichender Stückzahl. Wenn Nvidia einen Großteil seiner Kapazitäten an Hyperscaler und wenige Elite-Labs bindet, werden alle anderen zu nachrangigen Kunden.
Blick nach vorn
Für die nächsten Jahre zeichnet sich ein zweigeteilter Markt ab.
Auf der einen Seite stehen einige wenige Frontier-Labs und Hyperscaler, die sich über langfristige Milliardenverträge gegenseitig absichern. Sie definieren, was technisch möglich ist, und setzen indirekt Standards für Architekturen, Schnittstellen und Tooling.
Auf der anderen Seite entsteht ein enormer Second-Tier-Markt: Unternehmen, öffentliche Einrichtungen und Startups, die diese Modelle nutzen oder anpassen, ohne selbst in der Lage zu sein, sie von Grund auf neu zu trainieren. Für diese Gruppe werden Tools wie Tinker besonders interessant – vorausgesetzt, sie haben Zugang zu ausreichend Cloud-Kapazität.
Für die DACH-Region bedeutet das: Wer ernsthaft im KI-Bereich mitspielen will, muss Compute als strategischen Faktor behandeln. Das gilt für Konzerne ebenso wie für Mittelständler und öffentliche Hand.
Worauf sollte man achten?
Erstens auf die Vertragsbedingungen großer Cloud-Anbieter. Die EU-Datenverordnung sieht bereits vor, dass Cloud-Wechsel erleichtert werden sollen. Unternehmen sollten aktiv darauf drängen, Exit-Strategien und Portabilität in ihren Verträgen zu verankern – gerade bei KI-spezifischen Services.
Zweitens auf die Rolle von europäischen Supercomputing-Zentren. Wenn diese es schaffen, benutzerfreundliche Zugangsmodelle, Container-Orchestrierung und attraktive Konditionen für Industriepartner zu bieten, könnten sie eine echte Alternative für bestimmte Workloads werden.
Drittens auf Regulierung: Die nächste Welle könnte sich weniger auf Algorithmen konzentrieren und stärker auf Infrastruktur und Energieverbrauch. Denkbar sind Meldepflichten für extreme Trainingsläufe, Nachhaltigkeitsauflagen oder sogar Wettbewerbsvorgaben, die exklusive Deals begrenzen.
Für Berliner, Münchner oder Zürcher Startups ist die Kernfrage pragmatisch: Reicht es, ein kluger Nutzer der Hyperscaler zu sein, oder ist es strategisch nötig, eigene Rechenkapazitäten, Partnerschaften mit EuroHPC und clevere Multi-Cloud-Architekturen aufzubauen?
Fazit
Googles Milliardenpakt mit Thinking Machines macht deutlich, dass die wahre Knappheit im KI-Zeitalter nicht bei den Ideen liegt, sondern bei der Recheninfrastruktur. Ein kleiner Kreis aus Hyperscalern und Chip-Giganten bestimmt, wer im Frontier-Segment überhaupt antreten darf. Für Europa heißt das: Es reicht nicht, KI zu regulieren – die Politik muss entscheiden, ob sie auch beim Aufbau einer eigenen Compute-Basis mitspielen will. Und Unternehmen müssen sich fragen, wie abhängig sie von einer Handvoll Rechenzentren sein wollen, wenn KI zum Kern ihrer Wertschöpfung wird.



