NVIDIA ha anunciado oficialmente Rubin, su nueva plataforma de inteligencia artificial para centros de datos, destinada a convertirse en el núcleo de la próxima generación de infraestructuras de IA a gran escala. La compañía define Rubin como su plataforma más avanzada hasta la fecha, con un incremento de rendimiento de hasta cinco veces frente a Blackwell, y confirma que el ecosistema ya se encuentra en producción completa.
El anuncio llega antes de lo esperado —se anticipaba una actualización durante GTC—, pero NVIDIA ha optado por adelantar la presentación en un contexto de fuerte protagonismo de la IA durante CES.
 700 640.png)
Seis chips, una plataforma integrada
La plataforma NVIDIA Rubin está compuesta por seis chips principales, todos ellos ya fabricados y en fase de validación en los laboratorios de NVIDIA:
Rubin GPU (336.000 millones de transistores)
Vera CPU (227.000 millones de transistores)
NVLink 6 Switch para interconexión
ConnectX-9 y BlueField-4 para red
Spectrum-X 102.4T CPO para fotónica de silicio
Estos componentes se integran en sistemas DGX, HGX y MGX, con el Vera Rubin Superchip como pieza central de cada centro de datos.
 700 640.png)
Rubin GPU: IA pura con hasta 50 PFLOPs
La Rubin GPU está diseñada exclusivamente para cargas de trabajo de IA. Utiliza un diseño de doble die a nivel de retícula, con una enorme cantidad de núcleos de cómputo y tensoriales. Sus cifras clave son:
50 PFLOPs NVFP4 en inferencia
35 PFLOPs NVFP4 en entrenamiento
5× más rendimiento en inferencia y 3,5× en entrenamiento frente a Blackwell
HBM4 con hasta 22 TB/s de ancho de banda por chip
3,6 TB/s de ancho de banda NVLink por GPU
Estas cifras suponen un aumento de 2,8× en ancho de banda de memoria y 2× en interconexión NVLink respecto a Blackwell.
 700 640.png)
Vera CPU: arquitectura Olympus con 88 núcleos
La Vera CPU introduce la nueva arquitectura Arm personalizada de NVIDIA, con nombre en clave Olympus. Sus especificaciones incluyen:
88 núcleos / 176 hilos (NVIDIA Spatial Multi-Threading)
1,8 TB/s de interconexión coherente NVLink-C2C
Hasta 1,5 TB de memoria del sistema (3× Grace)
1,2 TB/s de ancho de banda LPDDR5X con SOCAMM
Confidential Computing a escala de rack
Según NVIDIA, Vera ofrece 2× más rendimiento en procesamiento de datos, compresión y flujos CI/CD frente a Grace.
NVLink 6, ConnectX-9 y BlueField-4: red y escalado extremo
El NVLink 6 Switch proporciona la malla de interconexión interna de Rubin, con:
400G SerDes
3,6 TB/s de ancho de banda all-to-all por CPU
28,8 TB/s de ancho de banda total
14,4 TFLOPS FP8 de cómputo en red
Diseño 100% refrigerado por líquido
En red, Rubin se apoya en:
ConnectX-9 SuperNIC, con 1,6 TB/s de ancho de banda, RDMA programable y aceleración de ruta de datos
BlueField-4, un DPU de 800G que integra un CPU Grace de 64 núcleos, con 2× más capacidad de red, 6× más cómputo y 3× más ancho de banda de memoria frente a BlueField-3
 700 640.png)
Vera Rubin NVL72: el rack de referencia
Todo converge en el NVIDIA Vera Rubin NVL72, que ofrece mejoras sustanciales frente a Blackwell:
5× rendimiento NVFP4 en inferencia (3,6 EFLOPS)
3,5× en entrenamiento NVFP4 (2,5 EFLOPS)
2,5× capacidad LPDDR5X (54 TB)
1,5× capacidad HBM4 (20,7 TB)
2,8× ancho de banda HBM4 (1,6 PB/s)
2× ancho de banda de escalado (260 TB/s)
Spectrum-X y nueva infraestructura de inferencia
NVIDIA también ha presentado Spectrum-X Ethernet con óptica co-empaquetada (CPO), que ofrece:
102,4 Tb/s de infraestructura scale-out
Fotónica de silicio integrada a 200G
95% de ancho de banda efectivo a escala
5× más eficiencia, 10× más fiabilidad y 5× más rendimiento de aplicaciones
Para inferencia a gran escala, Rubin se acompaña de la nueva plataforma Inference Context Memory Storage, integrada con Dynamo, NIXL y DOCA, pensada para inferencia a escala de gigamodelos.
DGX SuperPOD y disponibilidad
Rubin debutará en:
DGX SuperPOD con 8 racks Vera Rubin NVL72
DGX Rubin NVL8, orientado a centros de datos más convencionales
NVIDIA afirma que Rubin permite:
La plataforma ya está en producción, con los primeros chips llegando a clientes a lo largo de este año.
Con Rubin, NVIDIA redefine el techo tecnológico de la IA a escala de centro de datos. La combinación de HBM4, NVLink 6, CPUs Arm personalizadas, DPUs avanzadas y fotónica integrada consolida una plataforma diseñada no solo para el presente de la IA generativa, sino para su crecimiento explosivo en la segunda mitad de la década.