Rubin: el nuevo chip de Nvidia que multiplica por 5 la inferencia de IA

5 de enero de 2026
5 min de lectura
Jensen Huang sobre el escenario del CES 2026 presentando la arquitectura de chips Rubin para IA de Nvidia

Nvidia acaba de enseñar su próxima gran apuesta para la carrera de la IA: Rubin, una nueva arquitectura de computación que apunta directamente a superar a Blackwell.

El CEO Jensen Huang la presentó oficialmente el 5 de enero de 2026 durante el CES, y aseguró que Rubin ya está en producción y que su despliegue se intensificará en la segunda mitad del año.

«Vera Rubin está diseñada para abordar este desafío fundamental que tenemos: la cantidad de cómputo necesario para la IA se está disparando», dijo Huang al público. «Hoy puedo decirles que Vera Rubin está en plena producción».

Bautizada en honor a la astrónoma Vera Florence Cooper Rubin, la arquitectura se anunció por primera vez en 2024. Ahora se convierte en el siguiente paso del ciclo de hardware que ha transformado a Nvidia en la corporación más valiosa del mundo. Rubin sustituirá a Blackwell, que a su vez reemplazó a Hopper y Lovelace.


Todos los grandes nubes quieren Rubin

Antes de llegar al mercado masivo, Rubin ya tiene sitio reservado en casi todos los grandes proveedores de nube. Nvidia destacó acuerdos con:

  • Anthropic
  • OpenAI
  • Amazon Web Services (AWS)

En el frente de computación de alto rendimiento, Rubin será pieza clave en:

  • El superordenador Blue Lion de HPE
  • El futuro superordenador Doudna en el Lawrence Berkeley National Lab

Para cualquier empresa que entrene o sirva modelos de última generación —desde gigantes globales hasta startups latinoamericanas que consumen esa infraestructura— Rubin será parte del paisaje.


Una arquitectura de seis chips para atajar cuellos de botella

Rubin no es solo un nuevo GPU. Nvidia lo presenta como una arquitectura de seis chips pensada para trabajar en conjunto y atacar los cuellos de botella reales que aparecen en los clusters de IA.

Elementos clave:

  • GPU Rubin – el acelerador central para entrenamiento e inferencia
  • Mejoras en BlueField – para aliviar los cuellos de botella de almacenamiento y datos
  • Un NVLink reforzado – más ancho de banda entre chips
  • Un nuevo CPU Vera – diseñado para cargas de razonamiento agente

La memoria y el movimiento de datos están en el centro del diseño. Los modelos modernos dependen cada vez más de enormes cachés KV para condensar entradas largas, especialmente en flujos de trabajo de IA agente o tareas de larga duración.

El director senior de soluciones de infraestructura de IA de Nvidia, Dion Harris, lo explicó así al hablar de un nuevo nivel de almacenamiento externo integrado en Rubin:

«A medida que empiezas a habilitar nuevos tipos de flujos de trabajo, como IA agente o tareas a largo plazo, eso pone muchísima presión y requisitos sobre tu caché KV», dijo Harris a periodistas. «Así que hemos introducido un nuevo nivel de almacenamiento que se conecta externamente al dispositivo de cómputo y te permite escalar tu pool de almacenamiento de forma mucho más eficiente».

La idea: poder aumentar la capacidad de memoria y caché sin tener que comprar más GPUs únicamente por su RAM.


3,5× más rápido entrenando y 5× en inferencia

Según los tests internos de Nvidia, Rubin supone un salto considerable respecto a Blackwell:

  • 3,5× más rápido en entrenamiento de modelos
  • 5× más rápido en inferencia
  • Hasta 50 petaflops de cómputo
  • 8× más cómputo de inferencia por vatio

Habrá que esperar a benchmarks independientes para ver cómo se traduce eso en cargas reales, pero sobre el papel es un avance importante, sobre todo en eficiencia energética, un tema crítico para centros de datos desde Silicon Valley hasta Madrid, São Paulo o Ciudad de México.


En medio de una inversión de 3–4 billones de dólares en infraestructura de IA

Rubin llega en pleno boom de infraestructura de IA. Laboratorios y proveedores de nube compiten por hacerse con chips de Nvidia y con la energía y refrigeración necesarias para alimentarlos.

En una llamada de resultados en octubre de 2025, Huang estimó que se gastarán entre 3 y 4 billones de dólares en infraestructura de IA en los próximos cinco años.

Con Blackwell todavía desplegándose y Rubin entrando ya en producción, Nvidia superpone ciclos de producto y se asegura de que siempre haya una «última generación» que vender.

Para el ecosistema hispanohablante —desde hyperscalers con presencia en la región hasta startups que construyen productos sobre sus APIs— la pregunta ya no es si se usará Rubin, sino cuándo llegará a su proveedor de confianza y cuánto costará subirse a esa nueva ola de cómputo.

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.