Nvidia will zum Android der allgemeinen Robotik werden

6. Januar 2026
5 Min. Lesezeit
Nvidia-Demofläche mit humanoidem Roboter und Jetson-Hardware auf der CES 2026

Nvidia nutzt die CES 2026, um eine klare Botschaft zu senden: Das Unternehmen will für Roboter das werden, was Android für Smartphones ist – die Standardplattform für alle, die keine eigene, komplett proprietäre Lösung bauen wollen.

Dafür bringt Nvidia nicht nur neue Chips, sondern einen kompletten Stack aus Modellen, Simulationsumgebung, Orchestrierung und Edge-Hardware.

Vom Cloud-AI zur „Physical AI“

Nvidia beschreibt diese Strategie als Ökosystem für Physical AI – KI, die nicht nur im Rechenzentrum läuft, sondern auf Maschinen, die in der physischen Welt sehen, planen, lernen und handeln.

Möglich wird das durch drei zentrale Entwicklungen, auf die Nvidia setzt:

  • günstigere, leistungsfähigere Sensoren in Robotern,
  • fortgeschrittene Simulation, die Training aus der Fabrik in virtuelle Umgebungen verlagert,
  • KI-Modelle, die Aufgaben verallgemeinern können, statt nur einen eng definierten Job zu erledigen.

Auf der CES hat Nvidia diese Bausteine zu einem durchgängigen Robotics-Stack verbunden: offene Foundation-Modelle auf Hugging Face, eine offene Simulationsplattform, ein Orchestrierungs-Tool und neue Edge-Hardware.

Neue Foundation-Modelle für Roboter

Kern der Ankündigungen ist ein Bündel offener Foundation-Modelle, die Robotern helfen sollen, ihre Umgebung zu erfassen, Kontext zu verstehen und in vielen verschiedenen Szenarien zu agieren. Sämtliche Modelle sind über Hugging Face verfügbar.

Die wichtigsten Komponenten:

  • Cosmos Transfer 2.5 – ein World Model zur Generierung synthetischer Daten und zum Training von Robotern in Simulationen,
  • Cosmos Predict 2.5 – ein weiteres World Model, optimiert für die Bewertung von Robotik-Policies, bevor sie auf echter Hardware landen,
  • Cosmos Reason 2 – ein „Reasoning“ Vision-Language-Model (VLM), das visuelle Informationen mit Sprache und Kontext verknüpft,
  • Isaac GR00T N1.6 – das nächste Vision-Language-Action-Modell (VLA) von Nvidia, speziell für humanoide Roboter.

GR00T nutzt Cosmos Reason als kognitives Zentrum und ist auf Ganzkörpersteuerung ausgelegt. Ein humanoider Roboter soll damit gleichzeitig gehen und Objekte handhaben können, statt Bewegungs- und Greiffunktionen getrennt zu behandeln.

Damit zielt Nvidia klar über klassische, starr programmierte Industrieroboter hinaus.

Isaac Lab-Arena: ein gemeinsamer Trainingsplatz

Je komplexer Roboteraufgaben werden, desto aufwendiger und riskanter wird das Testen in der Realität – etwa bei präziser Objektmanipulation oder Kabelverlegung. Mit Isaac Lab-Arena stellt Nvidia nun einen neuen, offenen Simulationsrahmen auf GitHub zur Verfügung.

Lab-Arena soll ein gemeinsamer „Trainingsplatz“ für die Branche werden:

  • zentrale Sammlung von Aufgaben, Szenarien und Benchmarks,
  • gemeinsame Trainings-Tools und Ressourcen,
  • Unterstützung etablierter Benchmarks wie Libero, RoboCasa und RoboTwin.

Wo bisher oft jede Forschungsgruppe ihre eigene Simulationsumgebung aufsetzte, versucht Nvidia, die Kräfte in einer standardisierten Arena zu bündeln – eng verzahnt mit der eigenen Software- und Hardwareplattform.

OSMO: Kommandozentrale für Physical AI

Als verbindendes Element führt Nvidia OSMO ein, eine Open-Source-Kommandozentrale für den kompletten Workflow von der Datengenerierung bis zum Training.

OSMO soll:

  • Experimente über Desktop- und Cloud-Umgebungen hinweg koordinieren,
  • den Kreislauf aus Simulation, Modelltraining und Deployment auf Edge-Geräten vereinheitlichen.

Im Idealfall wird OSMO zu dem Ort, an dem Teams ihre Roboterflotten überwachen, Experimente steuern und Updates ausrollen.

Jetson T4000: Blackwell-Leistung am Edge

Unter der Haube steht neue Hardware. Nvidia präsentierte die Jetson T4000, eine Blackwell-basierte Grafikkarte und das jüngste Mitglied der Thor-Familie, ausgelegt auf On-Device-AI für Roboter.

Die von Nvidia genannten Eckdaten:

  • 1200 Teraflops AI-Rechenleistung,
  • 64 GB Speicher,
  • Leistungsaufnahme im Bereich von 40 bis 70 Watt.

Zielgruppe sind Entwicklerinnen und Entwickler, die hohe Inferenzleistung direkt im Roboter benötigen, ohne in Rechenzentrums-GPUs investieren zu müssen.

Vertiefte Partnerschaft mit Hugging Face

Parallel dazu vertieft Nvidia seine Zusammenarbeit mit Hugging Face, um Robotikentwicklung breiter zugänglich zu machen.

Die Integration verbindet Nvidias Isaac- und GR00T-Technologien mit dem LeRobot-Framework von Hugging Face. Auf dem Papier verknüpft das:

  • Nvidias Ökosystem von rund 2 Millionen Robotik-Entwicklern
  • mit der Community von 13 Millionen AI-Builders auf Hugging Face.

Ein konkretes Beispiel: Der offene humanoide Roboter Reachy 2 auf Hugging Face arbeitet nun direkt mit Nvidias Jetson Thor-Chip zusammen. Entwicklerinnen und Entwickler können unterschiedliche KI-Modelle auf ein und derselben Plattform testen, ohne an einen proprietären Stack gebunden zu sein.

Das passt zur Android-Analogie: offene Tools, frei verfügbare Modelle und standardisierte Hardware, um eine breite Gerätevielfalt zu ermöglichen.

Frühindikatoren, dass die Strategie greift

Es gibt erste Hinweise, dass Nvidias Plattformansatz in der Robotik anzieht.

Auf Hugging Face ist Robotik aktuell die am schnellsten wachsende Kategorie; Nvidias Modelle führen die Download-Statistiken an. Und auf der Unternehmensseite setzen bereits Firmen wie Boston Dynamics, Caterpillar, Franka Robots und NEURA Robotics auf Nvidia-Technologie.

Für die DACH-Region mit ihrer starken Automatisierungs- und Maschinenbauindustrie ist das relevant: Sollte sich Nvidias Stack als De-facto-Standard durchsetzen, könnten viele neue Robotiklösungen – vom mittelständischen Zulieferer bis zum Industrial-Startup – auf denselben Bausteinen aufsetzen.

Nvidia positioniert sich damit klar als Basisinfrastruktur für „General Purpose“-Roboter: vom Foundation-Model über die Simulation bis zum Edge-Chip. Android hat diese Rolle im Smartphone-Markt etabliert – jetzt versucht Nvidia, ein ähnliches Fundament für die Ära der allgemeinen Robotik zu legen.


Quell-Tweet: https://twitter.com/TechCrunch/status/2008311157950468454

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.