CES 2026: KI-Infrastruktur Nvidia stellt mit Vera Rubin eigene Next-Gen-KI-Server vor

Von Manuel Christa 3 min Lesedauer

Anbieter zum Thema

Auf der CES 2026 spannt Nvidia einen Bogen von der nächsten KI-Servergeneration bis zum autonomen Fahren. Vera Rubin soll Rechenzentren verdichten, Drive Hyperion und Alpamayo zielen auf Robotaxis. Start: zweite Jahreshälfte 2026.

DGX Vera Rubin: CEO Jensen Huang stellt auf seiner Keynote zur CES 2026 die KI-Server der nächsten Generation vor.(Bild:  Nvidia)
DGX Vera Rubin: CEO Jensen Huang stellt auf seiner Keynote zur CES 2026 die KI-Server der nächsten Generation vor.
(Bild: Nvidia)

Nvidia nutzt die CES 2026, um die eigene Roadmap als durchgehenden Stack zu zeigen: vom Rack im Rechenzentrum bis zur Referenzarchitektur im Fahrzeug. Der neue Plattformname lautet „Vera Rubin“ und steht für ein Paket aus GPU, CPU, NVLink und Netzbausteinen.

Fürs Rechenzentrum kündigt Nvidia den DGX Vera Rubin an. In der Rack-Variante NVL72 koppelt das Unternehmen 72 Rubin-GPUs mit 36 Vera-CPUs. Als Richtwert nennt Nvidia 50 Petaflops (NVFP4) pro Rubin-GPU. Fertige Systeme sollen in der zweiten Jahreshälfte 2026 starten.

Mehr Bandbreite, weniger Handarbeit im Rack

Der technische Hebel heißt NVLink 6. Nvidia beziffert die Bandbreite mit 3,6 Terabyte pro Sekunde und GPU, im NVL72-Rack sollen es 260 Terabyte pro Sekunde werden. Nach außen kommen ConnectX-9, BlueField-4 und Spectrum-X hinzu.

Nvidia betont beim Rack-Design die Serviceability: Komponenten sollen sich modular tauschen lassen, ohne das gesamte System lange aus dem Betrieb zu nehmen. Für Betreiber zählt am Ende weniger die schöne Folie als die Frage, wie schnell sich ein Rack warten lässt und wie planbar Stillstände bleiben.

Nvidia DGX Vera Rubin NVL72

Spezifikation Wert
Konfiguration (GPU/CPU) 72× Rubin GPUs, 36× Vera CPUs
NVFP4 Inference 3.600 PFLOPS
NVFP4 Training 2.520 PFLOPS
FP8/FP6 Training 1.260 PFLOPS
INT8 (dense) 18 POPS
FP16/BF16 (dense) 288 PFLOPS
TF32 (dense) 144 PFLOPS
FP32 9.360 TFLOPS
FP64 2.400 TFLOPS
FP32 SGEMM (Tensor-Core-Emulation) 28.800 TFLOPS
FP64 DGEMM (Tensor-Core-Emulation) 14.400 TFLOPS
GPU-Speicher gesamt 20,7 TB HBM4
GPU-Speicherbandbreite (Vera-Rubin-NVL72-Spec-Tabelle) 1.580 TB/s
GPU-Speicherbandbreite (DGX-Quick-Spec-Angabe) bis zu 28,8 TB/s
CPU-Kerne gesamt 3.168 „Olympus“-Kerne (Arm-kompatibel)
CPU-Speicher gesamt 54 TB LPDDR5X
Schneller Speicher gesamt 75 TB
NVLink Bandbreite (Rack) 260 TB/s
NVLink-C2C Bandbreite (Rack) 65 TB/s
NVLink Switch-System 9× L1 NVLink Switches
Networking (Scale-out, Adapter) >144× OSFP Single-Port ConnectX-9 VPI (800 Gb/s InfiniBand & Ethernet)
Networking (DPU) >18× Dual-Port BlueField-4 VPI (400 Gb/s InfiniBand & Ethernet)
Management-Netzwerk Host Baseboard Management Controller (BMC) mit RJ45
Software Mission Control, Ai Enterprise, Dgx Os
Enterprise Support 3 Jahre Support für Hardware und Software
Gesamtzahl „Nvidia + HBM4 Chips“ (Rack) 1.296

Vera als CPU und der Kontext-Flaschenhals

Zur Vera-CPU nennt Nvidia 88 selbst entwickelte Arm-Kerne („Olympus“) und 176 Threads. Nvidia beschreibt zudem eine koherente Kopplung von Vera und Rubin über NVLink-C2C, sodass CPU- und GPU-Speicher als gemeinsamer Pool nutzbar werden. Ziel: weniger Datenkopien, mehr Rechnen „am Platz“.

Für Inference ergänzt Nvidia eine „Inference Context Memory Storage Platform“. Nach Angaben des Unternehmens handelt es sich um eine flashbasierte, NVMe-/NVMe-oF-gestützte Speicherschicht (SSDs), die über Spectrum-X Ethernet mit den Rechenknoten gekoppelt ist. Nvidia verspricht damit bis zu 5× höhere Tokens-pro-Sekunde und bis zu 5× bessere Energieeffizienz gegenüber herkömmlichen Storage-Ansätzen.

Robotaxi-ready: Drive Hyperion und Alpamayo

Parallel treibt Nvidia die Autonomie-Schiene voran. Drive Hyperion bezeichnet das Unternehmen als Referenzplattform für „level 4-ready“ Fahrzeuge und spricht dabei ausdrücklich auch Robotaxis an. Mit „Hyperion 10“ meint Nvidia die aktuelle Generation seiner Drive-Hyperion-Referenzarchitektur, also ein vorvalidiertes Paket aus Rechnerplattform, Software-Stack und Sensorik. Dafür nennt Nvidia zwei Drive AGX Thor SoCs mit bis zu 1.000 INT8 TOPS und 2.000 FP4 TFLOPS pro SoC sowie eine vorvalidierte Sensorik mit 14 Kameras, neun Radars, einem Lidar und zwölf Ultraschallsensoren.

Als Software-Baustein liefert Nvidia die Alpamayo-Familie nach: offene KI-Modelle, Simulationstools und Datensätze für „reasoning-based“ Autonomie. Damit will Nvidia seltene „Long-Tail“-Situationen im Verkehr besser abfangen und Training, Simulation und In-Vehicle-Compute enger verzahnen.

Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.

(ID:50673885)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung