Überschrift und Einstieg
Googles neue TPU‑8‑Chips sind kein Todesstoß für Nvidia, sondern ein weiterer Schritt hin zu einer Welt, in der wenige Hyperscaler die Spielregeln der KI-Infrastruktur diktieren. Mit dem TPU 8t für Training und dem TPU 8i für Inferenz versucht Google, Kunden tiefer in den eigenen Stack zu ziehen – und gleichzeitig weiterhin massiv Nvidia-Hardware einzukaufen.
Im Folgenden ordnen wir die Ankündigung ein, beleuchten, warum Nvidia kurzfristig eher profitiert als verliert, und was dieser Schritt für europäische – und insbesondere deutschsprachige – Unternehmen im Kontext von DSGVO, EU-AI-Act und digitaler Souveränität bedeutet.
Die Nachricht in Kürze
Laut TechCrunch hat Google Cloud auf der Konferenz Next die achte Generation seiner eigens entwickelten KI-Beschleuniger vorgestellt: Tensor Processing Units (TPUs). Erstmals gibt es zwei Varianten: Der TPU 8t ist auf das Training großer KI-Modelle ausgelegt, der TPU 8i auf die Inferenz – also den produktiven Einsatz, wenn Nutzer ihre Anfragen stellen.
Google beziffert den Leistungssprung gegenüber der Vorgängergeneration auf bis zu das Dreifache beim Training, zudem sollen die neuen Chips rund 80 % mehr Leistung pro investiertem Dollar liefern. Außerdem lassen sich über eine Million TPUs zu einem einzigen Cluster zusammenschalten.
Wichtig: Google ersetzt damit nicht die Nvidia-GPUs im eigenen Cloud-Portfolio. Wie TechCrunch berichtet, will der Konzern weiterhin die neuesten Nvidia-Chips, darunter die kommende Generation Vera Rubin, anbieten und arbeitet mit Nvidia an optimierter Vernetzung – etwa über die softwarebasierte Netzwerk-Technologie Falcon, die Google 2023 im Rahmen des Open Compute Project als Open Source veröffentlicht hat.
Warum das wichtig ist
Die Schlagzeile „Google gegen Nvidia“ greift zu kurz. Tatsächlich lautet die Überschrift eher „Cloud gegen den Rest der Welt“.
Denn TPUs gibt es ausschließlich in der Google Cloud. Jede neue, effizientere Generation vergrößert den Abstand zwischen:
- Kunden, die auf Googles proprietären Stack setzen, und
- allen, die versuchen, mit Standard-Hardware im eigenen Rechenzentrum oder bei kleineren Cloud-Anbietern zu konkurrieren.
Wenn die versprochene Verdreifachung der Trainingsleistung und 80 % bessere Performance pro Dollar auch nur annähernd stimmen, verschieben sich die wirtschaftlichen Rahmenbedingungen weiter zugunsten der Hyperscaler. Für europäische KI-Startups, SaaS-Anbieter und Enterprise-Teams wird es immer schwerer, eigene GPU-Cluster zu rechtfertigen.
Die Trennung in TPU 8t (Training) und 8i (Inferenz) ist zudem ein Hebel für Margenoptimierung. Training ist unregelmäßig und kapitalintensiv, Inferenz dagegen kontinuierlich und extrem preissensibel. Mit spezialisierten Chips kann Google beide Phasen separat optimieren:
- Training lässt sich als Premium-Ressource mit hoher Marge verkaufen.
- Inferenz als skalierbarer, kosteneffizienter Durchsatz-Service.
Kurzfristig verliert Nvidia wenig. Google bleibt ein Großkunde und verbessert mit Nvidia gemeinsam die Systemleistung. Solange die Gesamtnachfrage nach KI-Rechenleistung explodiert, verkauft Nvidia praktisch alles, was aus den Fabriken kommt.
Unter Druck geraten eher:
- Zweit- und Drittanbieter im Cloud-Markt, die keine eigenen Chips entwickeln können,
- Kunden, die heute von günstigerer KI profitieren, sich aber perspektivisch immer enger an einen proprietären Hardware- und Software-Stack binden.
Der größere Kontext
Googles TPU 8 reiht sich in eine klare Branchentendenz ein: Hyperscaler integrieren vertikal und holen immer mehr Wertschöpfung ins eigene Haus.
Amazon hat Trainium und Inferentia, Microsoft seine Maia-Beschleuniger und Cobalt-CPUs vorgestellt, Meta baut an eigenen Chips für Empfehlungssysteme und generative KI. Alle diese Unternehmen kaufen parallel weiterhin enorme Mengen Nvidia-GPUs.
Das Muster:
- Nvidia als Kompatibilitätsanker – Die bestehende KI-Welt basiert stark auf dem Nvidia-Ökosystem (CUDA-Historie, PyTorch, Tools). Daran rüttelt kurzfristig niemand.
- Eigenes Silizium an den teuersten Stellen – Dort, wo die Kosten explodieren (großes Training, Massenauslieferung von Antworten), sollen proprietäre Chips die Rechnung drücken.
- Abstraktionsebene nach oben verlagern – Kunden konsumieren nicht mehr „GPU X“, sondern „Managed Training Service“, „Vektorsuche“, „Inference API“. Der Chip wird zu einem internen Detail.
Historisch erinnert das an frühere Wellen: Hybride Netzwerktechnik (eigene Switches, SmartNICs), selbst entwickelte Storage-Systeme statt klassischer SAN-Anbieter – immer dann, wenn ein Volumenmarkt entstand, folgte proprietäre Infrastruktur.
Für Nvidia bedeutet das: Die Bedrohung kommt nicht als plötzlicher Umsatzeinbruch, sondern als langsame Verlagerung der Verhandlungsmacht. Solange Nachfrage stärker wächst als die eigene Kapazität, spielt das kaum eine Rolle. Spätestens wenn sich der Markt normalisiert, zählen Margen und Abhängigkeiten jedoch wieder stärker.
Auffällig ist, dass Google und Nvidia gemeinsam an der Netzwerkebene (Falcon) arbeiten. Der eigentliche Burggraben im KI-Geschäft liegt weniger im einzelnen Chip als im Gesamtsystem aus Interconnect, Compiler-Stack, Orchestrierung und Zuverlässigkeit. Hier entscheiden Betriebs- und Energiekosten – und damit die Fähigkeit, KI-Dienste auch bei fallenden Preisen profitabel zu betreiben.
Die europäische / DACH-Perspektive
Für Europa ist TPU 8 eine Chance und ein Risiko zugleich.
Positiv: Günstigere und leistungsfähigere KI-Rechenleistung in einer globalen Cloud senkt die Eintrittsbarrieren für Startups in Berlin, München, Zürich oder Wien, für Forschungseinrichtungen wie DFKI oder Fraunhofer und für den industriellen Mittelstand. Das passt zu den Zielen der EU, KI-Anwendungen breit in Wirtschaft und Verwaltung zu verankern.
Negativ: TPUs sind ein Extremfall von Anbieterbindung. Sie lassen sich nicht einfach in ein eigenes Rechenzentrum in Frankfurt, Zürich oder Linz einbauen, sondern existieren nur innerhalb der Google-Infrastruktur.
Das kollidiert mit politischen Initiativen rund um digitale Souveränität, GAIA‑X und den EU Chips Act. Unter DSGVO, Digital Services Act, Digital Markets Act und künftig dem EU AI Act wächst der Druck, Datenflüsse transparent zu machen, Wechselbarrieren zu senken und Gatekeeper-Verhalten einzuschränken.
Europäische Cloud-Anbieter wie OVHcloud, Scaleway, IONOS, Hetzner oder Telekom Deutschland können kaum eigene KI-Chips entwickeln und müssen auf Standard-GPUs setzen. Sie geraten preislich noch stärker ins Hintertreffen, wenn Google seine TPU-Ökonomie voll ausspielt.
Für deutsche, österreichische und Schweizer Unternehmen mit ausgeprägtem Datenschutz- und Compliance-Fokus bedeutet das ein Dilemma: Entscheiden sie sich für maximale Performance und Kostenersparnis im US-Hyperscaler – oder für größere Kontrolle und Portabilität bei heimischen oder hybriden Lösungen?
Ein weiterer Punkt: Der EU AI Act fordert Transparenz über die verwendete Infrastruktur bei Hochrisiko-Systemen. Je proprietärer die Hardware, desto wichtiger werden offene Schnittstellen, dokumentierte Leistungsmerkmale und die Möglichkeit, Workloads notfalls auf andere Plattformen zu migrieren.
Ausblick
Die nächsten ein bis zwei Jahre werden weniger durch spektakuläre Benchmark-Rekorde geprägt sein als durch stille Verschiebungen in Preismodellen und Ökosystemen.
Von Google ist zu erwarten, dass TPU 8t/8i als Hebel für:
- aggressive Preissenkungen bei Trainings- und Inferenzdiensten,
- immer stärker abstrahierte KI-Plattformen (Bezahlung pro Token, pro Anfrage, pro „Feature“),
- erweiterte TPU-Verfügbarkeit in europäischen Regionen eingesetzt werden, um regulierte Branchen (Finanz, Gesundheit, öffentlicher Sektor) anzusprechen.
Worauf sollten Entscheider im DACH-Raum achten?
- Portabilität von Modellen – Wie glatt funktionieren PyTorch, JAX und Co. auf TPU 8? Wie einfach lassen sich Modelle zwischen On-Prem-Nvidia und Google-TPUs verschieben?
- Rolle von Open Source und europäischen HPC-Zentren – Binden große Rechenzentren wie LRZ, Jülich, Barcelona Supercomputing Center künftig TPU-Support ein oder setzen sie bewusst auf offene und Nvidia-basierte Hardware?
- Regulatorische Weichenstellungen – Insbesondere die Anwendung des DMA auf große Cloud-Plattformen wird spannend: Müssen Google & Co. technische und vertragliche Hürden für einen Anbieterwechsel aktiv abbauen?
Risiken für Google: Wenn sich der Markt stärker als erwartet in Richtung Multi-Cloud- und Hybrid-Strategien entwickelt und Regulatoren Interoperabilität durchsetzen, könnten allzu proprietäre Lösungen zum Bumerang werden. Hinzu kommt das finanzielle Risiko: Custom-Silizium ist teuer. Flacht das Wachstum der KI-Nachfrage ab, werden diese Projekte schnell zur Belastung.
Nvidia wiederum wird auf absehbare Zeit weiter ausverkauft sein. Der entscheidende Indikator ist nicht der Umsatz insgesamt, sondern der Anteil der Workloads, der auf proprietäres Hyperscaler-Silizium wandert.
Fazit
Googles TPU 8t und 8i läuten nicht das Ende von Nvidia ein, sondern vertiefen den Trend zu vertikal integrierten, hochgradig proprietären KI-Plattformen. Kunden erhalten kurzfristig mehr Leistung für weniger Geld – bezahlen aber mit wachsender Abhängigkeit von einem einzelnen Cloud-Anbieter.
Für Unternehmen im DACH-Raum, die zwischen Kostendruck, Innovationsdruck und strenger Regulierung navigieren müssen, wird eine Frage zentral: Optimieren Sie Ihre KI-Strategie auf den günstigsten Compute-Preis heute – oder auf die Freiheit, Infrastruktur morgen wechseln zu können?



