Nvidia will für Roboter und autonome Fahrzeuge das werden, was ChatGPT für Sprachmodelle ist.
Auf der CES 2026 hat das Unternehmen Alpamayo vorgestellt – eine neue Familie offener KI-Modelle, Simulationstools und Datensätze, mit der autonome Fahrzeuge komplexe Verkehrssituationen besser verstehen und ihre Entscheidungen erklären sollen.
CEO Jensen Huang sprach von einem „ChatGPT-Moment für physische KI“, also dem Zeitpunkt, an dem Maschinen beginnen, die reale Welt zu verstehen, zu begründen und danach zu handeln.
Alpamayo 1: 10-Milliarden-VLA-Modell für die Straße
Kern der Ankündigung ist Alpamayo 1, ein Vision-Language-Action (VLA)-Modell mit 10 Milliarden Parametern. Nvidia beschreibt es als Chain-of-Thought- und Reasoning-Modell, das speziell für physische Roboter und Fahrzeuge entwickelt wurde.
Statt Sensordaten nur direkt in Lenk-, Brems- und Gassignale zu übersetzen, soll Alpamayo 1:
- Probleme in einzelne Schritte zerlegen,
- mehrere Handlungsalternativen durchdenken,
- den aus Sicht des Systems sichersten Pfad wählen,
- und erläutern, welche Aktion ausgeführt wird – und warum.
Besonders wichtig ist das in Edge Cases – seltenen, schwierigen Situationen, die in Trainingsdaten kaum vorkommen. Nvidia nennt als Beispiel den Ausfall einer Ampel an einer stark befahrenen Kreuzung, die ein Fahrzeug ohne Vorerfahrung sicher meistern muss.
Ali Kani, Vice President Automotive bei Nvidia, erklärte in einem Pressegespräch, Alpamayo zerlege Probleme in Schritte, denke alle Möglichkeiten durch und wähle dann den sichersten Pfad.
Huang betonte in seiner Keynote, Alpamayo nehme nicht nur Sensordaten auf und bewege Lenkrad, Bremse und Gaspedal. Das Modell begründet die gewählte Aktion, kündigt an, was es tun wird, und liefert die geplante Trajektorie dazu.
Kurz gesagt: Nvidia will, dass selbstfahrende Systeme ihr eigenes Denken transparent machen.
Offener Code auf Hugging Face
Bemerkenswert ist, dass Nvidia Alpamayo nicht als geschlossene Blackbox anbietet.
Der zugrundeliegende Code von Alpamayo 1 steht auf Hugging Face zur Verfügung. Das Unternehmen positioniert ihn als offenes Fundament für das Ökosystem des autonomen Fahrens.
Entwicklerinnen und Entwickler können:
- Alpamayo feintunen und in kleinere, schnellere Modelle für bestimmte Fahrzeuge überführen,
- das Modell nutzen, um einfachere Fahrfunktionen anzulernen, die von seiner Fähigkeit zur Begründung profitieren,
- darauf aufbauend Tools entwickeln, etwa:
- Auto-Labeling-Systeme, die Videodaten automatisch annotieren,
- Evaluatoren, die prüfen, ob ein Fahrzeug sich in einer Situation sinnvoll verhalten hat.
Gerade Labeling und Edge-Case-Analyse gehören zu den teuersten Teilen der AV-Entwicklung. Nvidia setzt darauf, dass ein begründungsstarkes Modell hier erhebliche Automatisierung bringt.
Kosmos aus der Maschine: synthetische Daten mit Cosmos
Alpamayo ist eng mit Cosmos verknüpft, Nvidias Marke für generative Weltmodelle.
Solche Modelle lernen eine Repräsentation einer physischen Umgebung, um deren Verhalten zu simulieren und zukünftige Zustände vorherzusagen – weit über reine Bild- oder Textklassifikation hinaus.
Laut Nvidia können Entwickler Cosmos nutzen, um:
- synthetische Fahrdaten zu erzeugen,
- Alpamayo-basierte Anwendungen mit einer Kombination aus realen und synthetischen Datensätzen zu trainieren und zu testen.
Gerade für seltene oder gefährliche Szenarien ist das entscheidend: Niemand möchte reale Unfälle provozieren, nur um Trainingsdaten zu sammeln.
Offener Fahrdatensatz mit über 1.700 Stunden
Zusätzlich zum Modell bringt Nvidia einen offenen Datensatz mit mehr als 1.700 Stunden Fahrdaten an den Start.
Der Datensatz umfasst:
- verschiedene Regionen und Länder,
- unterschiedliche Wetter- und Lichtverhältnisse,
- seltene und komplexe realweltliche Szenarien.
Für Forschungsteams und Startups bietet das eine fertige Grundlage, um eigene Systeme zu trainieren, Benchmarks zu erstellen oder Ansätze direkt mit Alpamayo-basierten Lösungen zu vergleichen.
AlpaSim: Open-Source-Simulation für autonomes Fahren
Parallel veröffentlicht Nvidia AlpaSim, einen Open-Source-Simulationsrahmen zur Validierung autonomer Fahrsysteme.
AlpaSim ist auf GitHub verfügbar und soll reale Fahrbedingungen möglichst vollständig nachbilden, darunter:
- das Verhalten verschiedener Sensoren,
- Verkehrsfluss und andere Verkehrsteilnehmer,
- Straßeninfrastruktur und -geometrie.
Die Idee: Autonome Fahrsysteme lassen sich sicher und in großem Maßstab in der Simulation testen, bevor sie auf öffentliche Straßen kommen. In Kombination mit Alpamayo und Cosmos entsteht so eine durchgängige Pipeline – von der Simulation über das Training bis zur erklärbaren Validierung.
Bedeutung für „physische KI“ und Regulierung
Nvidia spricht zunehmend von „physischer KI“ – KI, die reale Maschinen steuert – als nächstem Wachstumsfeld. Alpamayo soll hier einen Standard dafür setzen, wie solche Systeme begründen und erklären.
Für autonome Fahrzeuge könnte das bedeuten:
- robusteres Verhalten in seltenen Extremsituationen,
- mehr Erklärbarkeit bei kritischen Manövern,
- bessere Möglichkeiten zur Auditierung und Fehlersuche.
Regulierungsbehörden – insbesondere in Europa – fordern seit Jahren mehr Transparenz bei KI-Systemen. Ein Modell, das begründen kann, warum ein Fahrzeug die Spur gewechselt oder stark gebremst hat, löst zwar nicht alle Sicherheitsprobleme, liefert Prüfern und Ingenieurteams aber deutlich mehr Anhaltspunkte als eine reine Aktionsausgabe.
Zugleich stärkt Nvidia seine Rolle als Taktgeber im AV-Stack: Neben Hardware bietet das Unternehmen nun auch offene Modelle, Datensätze und Simulation an, auf denen OEMs, Zulieferer und Forschungseinrichtungen aufbauen können.
Ob Alpamayo tatsächlich zum Standard-Gehirn selbstfahrender Autos wird, ist offen. Mit der Öffnung von Modell, Daten und Simulator setzt Nvidia aber darauf, dass ein breites Ökosystem physische KI in Richtung eines eigenen ChatGPT-Moments vorantreibt.



