CES 2026: NVIDIA DGX SuperPOD ebnet den Weg für Rubin-basierte Systeme

NVIDIA DGX SuperPOD ebnet den Weg für groß angelegte Systemimplementierungen auf Basis der NVIDIA Rubin Plattform – dem nächsten großen Sprung nach vorn im Bereich des KI-Computing.

Auf der CES-Messe in Las Vegas stellte NVIDIA heute die Rubin-Plattform vor, die aus sechs neuen Chips besteht und einen unglaublichen KI-Supercomputer bilden soll. Sie wurde entwickelt, um agentenbasierte KI, Mixture-of-Experts-Modelle (MoE) und kontextbezogenes Denken zu beschleunigen.

Die Rubin-Plattform vereint sechs Chips – die NVIDIA Vera CPU, die Rubin GPU, den NVLink 6 Switch, die ConnectX-9 SuperNIC, die BlueField-4 DPU und den Spectrum-6 Ethernet Switch – durch einen fortschrittlichen Co-Design-Ansatz, der das Training beschleunigt und die Kosten der Inferenztoken-Generierung reduziert.

DGX SuperPOD bleibt das grundlegende Design für den Einsatz von Rubin-basierten Systemen in Unternehmens- und Forschungsumgebungen.

Die NVIDIA DGX-Plattform adressiert den gesamten Technologie-Stack – von NVIDIA-Computing über Netzwerktechnik bis hin zu Software – als ein einziges, zusammenhängendes System. Dadurch entfällt die Last der Infrastrukturintegration, und die Teams können sich auf KI-Innovationen und Geschäftsergebnisse konzentrieren.

„Rubin kommt genau zum richtigen Zeitpunkt, da die Nachfrage nach KI-Rechenleistungen sowohl für das Training als auch für die Inferenz rasant steigt“, sagte Jensen Huang, Gründer und CEO von NVIDIA.

Neue Plattform für die KI-Industrierevolution

Die in den neuen DGX-Systemen verwendete Rubin-Plattform führt fünf wichtige technologische Fortschritte ein, die eine sprunghafte Steigerung von Intelligenz und Effizienz bewirken sollen:

  • NVIDIA NVLink der sechsten Generation – 3,6 TB/s pro GPU und 260 TB/s pro Vera Rubin NVL72-Rack für massive MoE- und Long-Context-Workloads.
  • NVIDIA Vera CPU – 88 NVIDIA Custom Olympus Kerne, volle Armv9.2 Kompatibilität und ultraschnelle NVLink-C2C-Konnektivität für branchenführende, effiziente KI-Fabrik-Rechenleistung.
  • NVIDIA Rubin GPU – 50 Petaflops NVFP4-Rechenleistung für KI-Inferenz mit Transformer Engine der dritten Generation und hardwarebeschleunigter Komprimierung.
  • NVIDIA Confidential Computing der dritten Generation — Vera Rubin NVL72 ist die erste Rack-Scale-Plattform, die NVIDIA Confidential Computing bietet und die Datensicherheit über CPU-, GPU- und NVLink-Domänen hinweg gewährleistet.
  • RAS-Engine der zweiten Generation – Die NVIDIA Rubin-Plattform umfasst GPU, CPU und NVLink und bietet Echtzeit-Zustandsüberwachung, Fehlertoleranz und proaktive Wartung. Modulare, kabellose Einschübe ermöglichen eine dreimal schnellere Wartung.

Zusammengenommen ermöglichen diese Innovationen eine bis zu zehnfache Reduzierung der Kosten für Inferenztoken im Vergleich zur vorherigen Generation – ein entscheidender Meilenstein, da KI-Modelle an Größe, Kontext und Schlussfolgerungstiefe zunehmen.

DGX SuperPOD: Der Entwurf für NVIDIA Rubin Scale-Out

Rubin-basierte DGX SuperPOD-Implementierungen werden Folgendes integrieren:

  • NVIDIA DGX Vera Rubin NVL72 oder DGX Rubin NVL8 Systeme
  • NVIDIA BlueField‑4 DPUs für sichere, softwaredefinierte Infrastruktur
  • NVIDIA Inference Context Memory Storage Platform für Inferenz der nächsten Generation
  • NVIDIA ConnectX 9 SuperNICs
  • NVIDIA Quantum‑X800 InfiniBand und NVIDIA Spectrum‑X Ethernet
  • NVIDIA Mission Control für die automatisierte Orchestrierung und den Betrieb von KI-Infrastrukturen

NVIDIA DGX SuperPOD mit DGX Vera Rubin NVL72 vereint acht DGX Vera Rubin NVL72-Systeme mit 576 Rubin-GPUs und liefert so eine FP4-Leistung von 28,8 Exaflops sowie 600 TB schnellen Speicher. Jedes DGX Vera Rubin NVL72-System – bestehend aus 36 Vera-CPUs, 72 Rubin-GPUs und 18 BlueField-4-DPUs – ermöglicht einen einheitlichen Speicher- und Rechenbereich im gesamten Rack. Dank eines aggregierten NVLink-Durchsatzes von 260 TB/s entfällt die Notwendigkeit der Modellpartitionierung, und das gesamte Rack kann als eine einzige, zusammenhängende KI-Engine betrieben werden.

NVIDIA DGX SuperPOD mit DGX Rubin NVL8-Systemen bietet 64 DGX Rubin NVL8-Systeme mit insgesamt 512 Rubin-GPUs. Diese Systeme vereinen Rubin-Leistung in einem flüssigkeitsgekühlten Gehäuse mit x86-CPUs und ermöglichen Unternehmen so einen effizienten Einstieg in die Rubin-Ära für jedes KI-Projekt im gesamten Entwicklungsprozess. Ausgestattet mit acht NVIDIA Rubin-GPUs und NVLink der sechsten Generation liefert jedes DGX Rubin NVL8-System die 5,5-fache NVFP4-FLOPS-Leistung im Vergleich zu NVIDIA Blackwell-Systemen.

Netzwerktechnologie der nächsten Generation für KI-Fabriken

Die Rubin-Plattform definiert das Rechenzentrum als Hochleistungs-KI-Fabrik mit revolutionärer Netzwerktechnologie neu. Sie umfasst NVIDIA Spectrum-6 Ethernet-Switches, NVIDIA Quantum-X800 InfiniBand-Switches, BlueField-4 DPUs und ConnectX-9 SuperNICs und ist für die Bewältigung der weltweit größten KI-Workloads ausgelegt. Durch die Integration dieser Innovationen in den NVIDIA DGX SuperPOD beseitigt die Rubin-Plattform die traditionellen Engpässe in Bezug auf Skalierbarkeit, Überlastung und Zuverlässigkeit.

Optimierte Konnektivität für massive Cluster

Die End-to-End-Netzwerksuite der nächsten Generation mit 800 Gbit/s bietet zwei speziell entwickelte Pfade für KI-Infrastrukturen und gewährleistet so höchste Effizienz, egal ob InfiniBand oder Ethernet verwendet wird:

  • NVIDIA Quantum-X800 InfiniBand: Bietet die branchenweit niedrigste Latenz und höchste Leistung für dedizierte KI-Cluster. Es nutzt das Scalable Hierarchical Aggregation and Reduction Protocol (SHARP v4) und adaptives Routing, um kollektive Operationen auf das Netzwerk auszulagern.
  • NVIDIA Spectrum-X Ethernet: Diese Plattform basiert auf dem Spectrum-6 Ethernet-Switch und der ConnectX-9 SuperNIC und bietet KI-Fabriken eine vorhersehbare, leistungsstarke Scale-Out- und Scale-Across-Konnektivität unter Verwendung von Standard-Ethernet-Protokollen, die speziell für die „Ost-West“-Verkehrsmuster von KI-Workloads optimiert ist.

Entwicklung der Gigawatt-KI-Fabrik

Diese Innovationen stellen eine extreme Co-Entwicklung mit der Rubin-Plattform dar. Durch die Beherrschung von Staukontrolle und Leistungsisolation ebnet NVIDIA den Weg für die nächste Generation von Gigawatt-KI-Fabriken. Dieser ganzheitliche Ansatz stellt sicher, dass die Netzwerkarchitektur der KI-Fabrik auch bei zunehmender Komplexität der KI-Modelle ein Geschwindigkeitsbeschleuniger und kein Hindernis bleibt.

NVIDIA Software optimiert Betrieb und Implementierung von KI-Fabriken

NVIDIA Mission Control – eine KI-basierte Software für den Betrieb und die Orchestrierung von Rechenzentren auf Basis von NVIDIA Blackwell-basierten DGX-Systemen – wird auch für Rubin-basierte NVIDIA DGX-Systeme verfügbar sein, um Unternehmen die Automatisierung der Verwaltung und des Betriebs ihrer Infrastruktur zu ermöglichen.

NVIDIA Mission Control beschleunigt jeden Aspekt des Infrastrukturbetriebs, von der Konfiguration von Bereitstellungen über die Integration mit Einrichtungen bis hin zur Verwaltung von Clustern und Workloads.

Intelligente, integrierte Software ermöglicht Unternehmen eine verbesserte Kontrolle über Kühlung und Stromversorgung von NVIDIA Rubin sowie eine höhere Ausfallsicherheit ihrer Infrastruktur. NVIDIA Mission Control sorgt für schnellere Reaktionszeiten durch die rasche Erkennung von Leckagen, ermöglicht den Zugriff auf die neuesten Effizienzinnovationen von NVIDIA und maximiert die Produktivität von KI-gestützten Fabriken durch autonome Wiederherstellung.

NVIDIA DGX-Systeme unterstützen auch die NVIDIA AI Enterprise Softwareplattform, einschließlich NVIDIA NIM Microservices, beispielsweise für die NVIDIA Nemotron-3 Familie offener Modelle, Daten und Bibliotheken.

DGX SuperPOD: Der Weg in die Zukunft der industriellen KI

DGX SuperPOD diente lange als Vorbild für großflächige KI-Infrastrukturen. Die Einführung der Rubin-Plattform wird die Startrampe für eine neue Generation von KI-Fabriken bilden – Systeme, die Tausende von Schritten verarbeiten und Intelligenz zu deutlich geringeren Kosten liefern können. So unterstützen sie Unternehmen beim Aufbau der nächsten Generation zukunftsweisender Modelle, multimodaler Systeme und agentenbasierter KI-Anwendungen.

NVIDIA DGX SuperPOD mit DGX Vera Rubin NVL72 oder DGX Rubin NVL8 Systemen werden in der zweiten Jahreshälfte verfügbar sein.