Nvidias Rubin-Architektur: 5-fache AI-Inferenzleistung gegenüber Blackwell

5. Januar 2026
5 Min. Lesezeit
Nvidia-CEO Jensen Huang präsentiert auf der CES 2026 die Rubin-Chiparchitektur für AI auf der Bühne

Nvidia hat auf der CES 2026 in Las Vegas seine nächste AI-Plattform vorgestellt: die Rechenarchitektur Rubin. Sie soll Blackwell ablösen und die Führung des Unternehmens im AI-Chipmarkt absichern.

CEO Jensen Huang kündigte Rubin am 5. Januar 2026 offiziell an und bestätigte, dass die Plattform bereits produziert wird und in der zweiten Jahreshälfte deutlich hochgefahren werden soll.

„Vera Rubin ist dazu gedacht, diese grundlegende Herausforderung zu adressieren, die wir haben: Die Menge an Rechenleistung, die für AI nötig ist, schießt in die Höhe“, sagte Huang auf der Bühne. „Heute kann ich Ihnen sagen, dass Vera Rubin in Vollproduktion ist.“

Rubin wurde erstmals 2024 angekündigt und ist nach der Astronomin Vera Florence Cooper Rubin benannt. Es ist der jüngste Schritt in Nvidias aggressivem Entwicklungszyklus, der das Unternehmen zur wertvollsten Firma der Welt gemacht hat. Rubin folgt auf Blackwell, das zuvor Hopper und Lovelace abgelöst hatte.


Hyperscaler und Supercomputer setzen auf Rubin

Schon vor dem breiten Marktstart hat sich Nvidia namhafte Kunden gesichert. Laut Unternehmen sind Rubin‑Chips bei nahezu allen großen Cloud‑Providern eingeplant, darunter Partnerschaften mit:

  • Anthropic
  • OpenAI
  • Amazon Web Services (AWS)

Im HPC‑Bereich wird Rubin in folgenden Systemen eingesetzt:

  • Blue Lion‑Supercomputer von HPE
  • kommender Doudna‑Supercomputer im Lawrence Berkeley National Lab

Für Betreiber großer AI‑Cluster – auch im deutschsprachigen Raum – ist damit klar: Wer an der Spitze bleiben will, wird sich früh mit Rubin auseinandersetzen müssen.


Sechs Chips gegen AI‑Flaschenhälse

Rubin ist mehr als nur ein neuer GPU. Nvidia beschreibt es als Architektur aus sechs separaten Chips, die im Verbund arbeiten und typische Engpässe in AI‑Rechenzentren adressieren.

Kernelemente sind:

  • Rubin GPU – zentraler Beschleuniger für Training und Inferenz
  • Verbesserungen bei BlueField – zur Entschärfung von Speicher‑ und Storage‑Engpässen
  • ein aufgewertetes NVLink – für schnellere Chip‑zu‑Chip‑Verbindungen
  • ein neuer Vera CPU – speziell für agentisches Reasoning

Ein Schwerpunkt liegt auf Speicherhierarchie und Datenbewegung. Moderne Modelle, insbesondere große Sprachmodelle und agentische Systeme, stellen hohe Anforderungen an ihre KV‑Caches, die Eingaben über lange Kontexte komprimieren.

Nvidias Senior Director für AI Infrastructure Solutions, Dion Harris, verwies genau auf diese Anforderungen, als er eine neue Speicherebene innerhalb der Rubin‑Plattform erläuterte.

„Wenn Sie neue Arten von Workflows ermöglichen, etwa agentische AI oder langfristige Aufgaben, erzeugt das enormen Druck auf Ihren KV‑Cache“, sagte Harris gegenüber Reportern. „Deshalb haben wir eine neue Speicherstufe eingeführt, die extern mit dem Compute‑Device verbunden ist und es Ihnen erlaubt, Ihren Speicherpool wesentlich effizienter zu skalieren.“

Für Betreiber bedeutet das: mehr Flexibilität beim Ausbau von Arbeitsspeicher und Caches, ohne zwangsläufig zusätzliche GPUs nur als „RAM‑Träger“ anschaffen zu müssen.


3,5× schnelleres Training, 5× schnellere Inferenz

Leistungsmäßig setzt Rubin deutlich über Blackwell an. Interne Tests von Nvidia bescheinigen der Architektur:

  • 3,5‑fache Geschwindigkeit bei Training von Modellen
  • 5‑fache Geschwindigkeit bei Inferenz
  • Rechenleistung von bis zu 50 Petaflops
  • 8‑fach mehr Inferenz‑Compute pro Watt

Diese Werte sind noch nicht unabhängig verifiziert, geben aber einen Eindruck vom Anspruch der Plattform – insbesondere beim Verhältnis von Leistung zu Energieverbrauch, das für europäische Rechenzentren mit strikten Effizienz‑ und Nachhaltigkeitszielen zunehmend entscheidend ist.


Positionierung im AI‑Infrastruktur‑Wettrennen

Rubin startet in einem Markt, in dem AI‑Labs und Cloud‑Anbieter weltweit um Chips, Strom und Kühlkapazität konkurrieren.

Auf einem Earnings Call im Oktober 2025 schätzte Huang, dass in den kommenden fünf Jahren 3 bis 4 Billionen US‑Dollar in AI‑Infrastruktur investiert werden. Rubin ist Nvidias Versuch, einen maximal großen Anteil an diesen Ausgaben zu binden.

Für Unternehmen im DACH‑Raum stellen sich damit mehrere Fragen:

  • Wie schnell werden Rubin‑Systeme bei europäischen Cloud‑Providern verfügbar sein?
  • Welche Preisaufschläge gegenüber Blackwell werden sich etablieren?
  • Und wie stark steigt die Abhängigkeit von einem einzelnen Chip‑Lieferanten?

Klar ist: Mit Rubin schiebt Nvidia die Messlatte für dedizierte AI‑Hardware erneut deutlich nach oben – und setzt Wettbewerber bei General‑Purpose‑CPUs, spezialisierten AI‑Beschleunigern und offenen Architekturen weiter unter Druck.

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.