Uber, AWS und Trainium3: Warum im KI-Zeitalter der Chip den Cloud-Markt dominiert

7. April 2026
5 Min. Lesezeit
Serverregale mit KI‑Chips sowie Logos von Uber und Amazon Web Services
  1. ÜBERSCHRIFT UND EINSTIEG

Ubers jüngste Cloud-Entscheidung ist ein Blick in die Zukunft der digitalen Infrastruktur: Nicht mehr Rechenzentren oder Softwarefunktionen entscheiden über Macht und Margen, sondern Silizium. Indem Uber seine Zusammenarbeit mit Amazon Web Services vertieft und die neuen Trainium3‑Chips testet, stellt sich der Konzern klar auf die Seite der Cloud-Anbieter, die ihre KI-Hardware selbst entwickeln.

Damit wird sichtbar, wie brüchig selbst milliardenschwere Multi‑Cloud‑Verträge sein können – und wie sehr eigene Chips zum schärfsten Instrument im Wettbewerb gegen Nvidia, Google Cloud, Oracle & Co. werden.

Im Folgenden ordnen wir den Deal ein, analysieren die Folgen für Kosten, Wettbewerb und Regulierung und blicken speziell auf Auswirkungen für die DACH‑Region.

  1. DIE NEWS IN KÜRZE

Laut einem Bericht von TechCrunch hat Amazon bekanntgegeben, dass Uber seine Nutzung von AWS ausweitet und künftig mehr Ride‑Hailing‑Funktionen auf Amazon‑eigenen Chips betreiben will.

Konkret will Uber verstärkt auf AWS Graviton setzen – ARM‑basierte Server‑CPUs, die für gute Energieeffizienz und Preis‑Leistungs‑Verhältnis stehen – und parallel dazu einen neuen Pilot mit Trainium3 starten. Trainium3 ist Amazons aktueller KI‑Beschleuniger und soll eine Alternative zu Nvidia‑GPUs beim Training großer Modelle bieten.

Brisant ist das vor allem vor dem Hintergrund, dass Uber 2023 umfangreiche, mehrjährige Cloud‑Verträge mit Oracle und Google geschlossen hat, um seine eigenen Rechenzentren weitgehend abzulösen. In diesem Zusammenhang hatte Uber besonders die ARM‑Instanzen bei Oracle hervorgehoben, die auf Chips des Start‑ups Ampere basieren. Ampere wurde inzwischen von SoftBank übernommen, Oracle hat seine Beteiligung verkauft.

Jetzt schiebt sich AWS mit eigenen Chips dazwischen und gewinnt zusätzliche Uber‑Workloads.

  1. WARUM DAS WICHTIG IST

Der klare Gewinner heißt zunächst Amazon. Der Konzern verschafft sich nicht nur mehr Umsatz mit Uber, sondern vor allem ein prominentes Referenzprojekt für seine Chipstrategie. Graviton und Trainium galten lange als interessante Experimente; wenn ein hyperskalierter, latenzkritischer Dienst wie Uber sie im großen Stil nutzt, signalisiert das anderen Großkunden: Das ist produktionsreif.

Für Uber selbst ist der Schritt vor allem eine Kosten‑ und Machtfrage. Ride‑Hailing, Essenslieferung und Logistik sind volumengetriebene, margenschwache Geschäfte. KI steckt inzwischen in nahezu jedem Teil der Plattform – von der Ankunftszeit‑Prognose über dynamische Preise bis hin zu Betrugserkennung und Support. Wenn Graviton und Trainium3 die versprochene Effizienz bringen, senkt Uber seine KI‑Kosten und gewinnt Verhandlungsmacht gegenüber Oracle, Google und Nvidia.

Die Verlierer sind differenzierter. Nvidia wird wegen eines einzelnen Trainium‑Pilots nicht ins Wanken geraten, aber das Signal ist klar: Große Kunden arbeiten aktiv daran, sich Alternativen zu GPU‑Monokulturen aufzubauen. Oracle trifft es direkter: Der Konzern hat sich aus Ampere zurückgezogen und die Bedeutung eigener Chipentwicklung heruntergespielt – just in dem Moment, in dem ein zentraler Kunde von einem Wettbewerber mit genau diesem Argument umworben wird.

Strategisch unterstreicht der Deal einen tiefergehenden Trend: Der neue Lock‑in in der Cloud entsteht nicht nur über APIs oder proprietäre Datenbanken, sondern über den Chip‑Stack. Wer KI‑Workloads auf Trainium oder Graviton optimiert, wechselt nicht mal eben zu einem anderen Provider. AWS baut seinen Burggraben buchstäblich vom Transistor an aufwärts.

  1. DER GRÖSSERE KONTEXT

Ubers Kurswechsel passt in ein größeres Muster: Hyperscaler versuchen, ihre Abhängigkeit von Nvidia zu reduzieren, indem sie ihre eigenen Prozessoren entwickeln.

Google betreibt seit Jahren seine TPU‑Linie. Microsoft bringt mit Maia (KI‑Beschleuniger) und Cobalt (ARM‑CPU) seine eigenen Chips in Stellung. Meta entwickelt MTIA‑Chips für Inferenz‑Workloads. Amazon wiederum hat mit Graviton und Trainium ein schnell wachsendes, milliardenschweres Geschäft aufgebaut, wie das Management Ende 2025 betonte.

Der gemeinsame Nenner: Die KI‑Explosion hat Nvidia zur kritischen Engstelle des gesamten Ökosystems gemacht – mit Lieferengpässen und explodierenden Preisen. Eigene Chips sind die logische Antwort. Sie müssen Nvidia nicht in jeder Benchmark schlagen; entscheidend ist, dass sie für bestimmte Workloads günstiger pro Watt und pro Euro sind.

Historisch erinnert das an die Entstehung des Public‑Cloud‑Markts. Anfangs war der Besitz großer Rechenzentren ein Wettbewerbsvorteil, heute sind standardisierte x86‑Racks Commodity. Die Differenzierung findet eine Ebene höher statt: bei spezialisierten Beschleunigern und eng integrierten Software‑Stacks.

Die von TechCrunch skizzierte Ampere‑Geschichte zeigt, wie volatil dieses Feld ist. Oracle wollte sich über ARM‑Server differenzieren, investierte massiv in Ampere – und verabschiedete sich dann wieder, inklusive eines satten Buchgewinns. Nun erklärt der Konzern, eigene Chips seien kein entscheidender Vorteil mehr, und setzt massiv auf Nvidia. AWS geht den umgekehrten Weg: Eigene Chips werden ins Zentrum der Cloud‑Strategie gerückt.

Das Ergebnis: Der KI‑Infrastrukturmarkt fragmentiert technisch – unterschiedliche Clouds, unterschiedliche Architekturen, unterschiedliche Beschleuniger –, während er wirtschaftlich um eine Handvoll amerikanischer Hyperscaler konzentriert bleibt.

  1. DIE EUROPÄISCHE UND DACH‑PERSPEKTIVE

Für Unternehmen in Deutschland, Österreich und der Schweiz ist die Botschaft zwiespältig. Auf der einen Seite ist mehr Wettbewerb im Chip‑Segment grundsätzlich positiv: Wenn Trainium3 und Co. Nvidia zu mehr Preisdruck zwingen, profitieren europäische KI‑Startups, Forschungsteams und Mittelständler, die heute oft über Credits oder Rahmenverträge auf AWS, Azure oder Google Cloud setzen.

Auf der anderen Seite verschärft sich das Souveränitätsdilemma. Eigene Chips verstärken die vertikale Integration der US‑Hyperscaler: Hardware, Laufzeitumgebung, Managed Services, Modelle und Daten – alles aus einer Hand, oft außerhalb der EU. Das kollidiert zumindest teilweise mit den politischen Zielen der EU, wie sie sich in GDPR, Data Act, Digital Markets Act und der kommenden KI‑Verordnung widerspiegeln: Interoperabilität, Portabilität und Begrenzung von Gatekeeper‑Macht.

Europäische Cloud‑Anbieter wie OVHcloud, IONOS oder Swisscom setzen bislang überwiegend auf Standard‑CPUs und GPUs. Einige kooperieren mit Nvidia oder kleineren Chip‑Anbietern, doch echte, proprietäre KI‑Beschleuniger sind selten. Für sie liegt die Chance darin, mit Transparenz, Datensouveränität, regionalen Rechenzentren und offenere Standards zu punkten – nicht mit dem schnellsten, sondern mit dem vertrauenswürdigsten Chip‑Stack.

Gerade im datensensiblen DACH‑Markt – von Industrie 4.0 bis Gesundheitswesen – wird die Frage relevanter, ob ein KI‑Stack nicht nur leistungsfähig, sondern auch regulatorisch handhabbar ist. Ubers AWS‑Deal dürfte die Diskussion um „Hardware‑Lock‑in“ in europäischen Beschaffungsprojekten verstärken.

  1. AUSBLICK

Wie es weitergeht, hängt vor allem von drei Entwicklungen ab.

Erstens: Liefert Trainium3 im Alltag? Wenn Uber signifikante Kosten‑ oder Stabilitätsvorteile gegenüber Nvidia‑basierten Setups sieht, werden andere Großkunden nachziehen – zunächst mit Tests, anschließend mit selektiven Migrationen. Bleiben die Vorteile marginal, bleibt Trainium ein Nischenangebot für sehr preisbewusste oder AWS‑treue Kunden.

Zweitens: Wie weit trägt ein chipzentrierter Multi‑Cloud‑Ansatz? Uber ist nun auf drei Ebenen multi‑cloud: Provider (AWS, Oracle, Google), Architekturen (x86, diverse ARM‑Varianten) und Beschleuniger (Nvidia, Trainium, möglicherweise weitere). Das schafft Verhandlungsmacht, aber auch operative Komplexität. In der Praxis konsolidieren große Kunden meist auf einen Leit‑Cloudanbieter plus ein bis zwei Spezialpartner. Welcher Provider diese Leitrolle erhält, wird zunehmend vom Chip‑Fahrplan mitbestimmt.

Drittens: Wie reagieren Nvidia und die Regulierer? Nvidia dürfte seine Strategie, über Software‑Ökosystem und Partnerschaften unverzichtbar zu bleiben, weiter forcieren. Auf regulatorischer Seite ist zu erwarten, dass die EU‑Kommission Hardware‑Lock‑in künftig stärker in die Auslegung von DMA, Data Act und KI‑Verordnung einbezieht – insbesondere dort, wo wenige Anbieter ganze Wertschöpfungsketten kontrollieren.

Für Entscheider in der DACH‑Region bedeutet das: Bei der nächsten Cloud‑Ausschreibung geht es nicht mehr nur um Rechenzentren, Preise und Services – sondern ganz konkret darum, auf welche Chip‑Straße Sie Ihr KI‑Portfolio schicken.

  1. FAZIT

Ubers enger Schulterschluss mit AWS rund um Graviton und Trainium3 ist mehr als eine weitere Cloud‑Meldung; er ist ein Stimmzettel für vertikal integrierte KI‑Stacks, in denen der entscheidende Wettbewerbsvorteil im Silizium liegt. Das stärkt Amazon, erhöht den Druck auf Nvidia und Oracle und reduziert die realistischen Optionen für europäische KI‑Projekte. Die zentrale Frage lautet: Wollen wir zulassen, dass proprietäre Chips zum nächsten großen Nadelöhr der digitalen Ökonomie werden?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.