Nvidia va a por el «momento ChatGPT» de los coches autónomos.
En el CES 2026, la compañía presentó Alpamayo, una nueva familia de modelos de IA de código abierto, herramientas de simulación y conjuntos de datos pensados para entrenar robots físicos y vehículos. El objetivo: que los sistemas de conducción autónoma razonen en situaciones complejas y puedan explicar lo que hacen.
El CEO Jensen Huang lo resumió así: es el “momento ChatGPT para la IA física”, cuando las máquinas empiezan a entender, razonar y actuar en el mundo real.
Alpamayo 1: un modelo VLA de 10.000 millones de parámetros
La estrella del anuncio es Alpamayo 1, un modelo de visión‑lenguaje‑acción (VLA) con 10.000 millones de parámetros.
Nvidia lo define como un modelo de cadena de pensamiento y razonamiento diseñado para robots y vehículos físicos. No solo ve el entorno: intenta pensar como una persona ante un problema en la carretera.
En lugar de limitarse a convertir los datos de los sensores en giros de volante y frenadas, Alpamayo 1 está diseñado para:
- Dividir el problema en pequeños pasos
- Evaluar distintas acciones posibles
- Elegir el camino que considera más seguro
- Explicar qué va a hacer y por qué lo hace
Esto es clave en los llamados casos extremos: eventos raros que casi no aparecen en los datos de entrenamiento. Nvidia menciona un ejemplo muy concreto: un semáforo apagado en un cruce muy concurrido que el coche nunca ha visto antes.
Según Ali Kani, vicepresidente de automoción de Nvidia, Alpamayo “descompone los problemas en pasos, razona todas las posibilidades y luego selecciona el camino más seguro”.
Huang añadió en su keynote que el sistema no solo recibe datos de los sensores y mueve dirección, freno y acelerador. También razona sobre la acción, anuncia lo que va a hacer y muestra la trayectoria que seguirá.
En la práctica, Nvidia quiere coches autónomos que sean capaces de narrar su propio pensamiento.
Código abierto en Hugging Face
Un detalle importante: Nvidia no presenta Alpamayo como una caja negra cerrada.
El código base de Alpamayo 1 está disponible en Hugging Face, y la empresa lo plantea como un fundamento abierto sobre el que pueda construir todo el ecosistema de conducción autónoma.
Con eso, los desarrolladores pueden:
- Afinar Alpamayo para crear modelos más pequeños y rápidos adaptados a cada vehículo
- Usarlo para entrenar sistemas de conducción más sencillos que hereden su capacidad de razonamiento
- Construir herramientas encima, como:
- Sistemas de autoetiquetado que marcan vídeos de forma automática
- Evaluadores que revisan si el coche tomó una buena decisión en una situación concreta
En un sector donde etiquetar datos de sensores y revisar casos extremos consume enormes recursos, Nvidia apuesta a que un modelo con fuerte capacidad de razonamiento puede automatizar buena parte de ese trabajo.
Mundos sintéticos con Cosmos
Alpamayo llega de la mano de Cosmos, la marca de Nvidia para sus modelos generativos de mundo.
Estos modelos no solo clasifican imágenes o predicen texto. Aprenden una representación de un entorno físico para poder simular su comportamiento y anticipar lo que va a ocurrir.
Según Nvidia, los equipos pueden usar Cosmos para:
- Generar datos de conducción sintéticos
- Entrenar y probar aplicaciones basadas en Alpamayo usando una mezcla de datos reales y sintéticos
Para situaciones raras o peligrosas —desde accidentes múltiples hasta condiciones extremas de clima— la opción de recrearlas en mundos sintéticos es mucho más segura que recoger esos datos en la vida real.
Un dataset abierto con más de 1.700 horas de conducción
El lanzamiento de Alpamayo viene acompañado de un conjunto de datos abierto con más de 1.700 horas de conducción.
Este dataset incluye:
- Diferentes geografías
- Distintas condiciones de luz y climatología
- Escenarios reales raros y complejos
Para universidades, centros de investigación y startups, es una base lista para usar: sirve para entrenar modelos propios, comparar enfoques o poner a prueba sistemas frente a los mismos casos límite.
AlpaSim: simulación abierta para validar coches autónomos
El tercer pilar del paquete es AlpaSim, un marco de simulación de código abierto para validar sistemas de conducción autónoma.
Disponible en GitHub, AlpaSim está diseñado para recrear las condiciones de conducción del mundo real, incluyendo:
- Sensores y su comportamiento
- Tráfico y otros actores en la vía
- Infraestructura y diseño de carreteras
La promesa: los equipos pueden probar sus pilas de software a gran escala y con seguridad en simulación antes de salir a la calle. Combinado con Alpamayo y Cosmos, forma una canalización completa: simular, entrenar, probar y explicar.
Por qué importa para la IA física
Nvidia lleva tiempo hablando de «IA física»: inteligencia artificial que controla máquinas en el mundo real. Con Alpamayo intenta estandarizar no solo cómo ven y actúan esos sistemas, sino cómo razonan.
En el caso de los coches autónomos, eso puede traducirse en:
- Mejor gestión de casos extremos en carretera
- Mayor explicabilidad sobre por qué el vehículo actuó de cierta manera
- Nuevas formas de auditar y depurar fallos
En un contexto donde los reguladores piden más transparencia a la IA, tener un modelo capaz de explicar por qué cambió de carril o frenó de golpe no resuelve todos los debates de seguridad, pero ofrece a ingenieros y autoridades mucha más información que un simple “giró a la derecha”.
Alpamayo también refuerza el papel de Nvidia como columna vertebral del stack de conducción autónoma. La empresa ya suministra los chips que impulsan muchos de estos sistemas; ahora suma modelos, datos y simulación abiertos encima de ese hardware.
Queda por ver si Alpamayo se convierte en el cerebro de referencia para los coches autónomos. Pero al abrir el modelo, el simulador y el dataset, Nvidia apuesta claramente por que una comunidad amplia —de fabricantes, startups y laboratorios de investigación— empuje a la IA física hacia su propio momento ChatGPT.



