Auf der CES präsentierte NVIDIA heute die nächste Generation der KI mit der Einführung der NVIDIA Rubin-Plattform. Diese umfasst sechs neue Chips und bildet einen leistungsstarken KI-Supercomputer. NVIDIA Rubin setzt neue Maßstäbe für die Entwicklung, den Einsatz und die Absicherung der weltweit größten und fortschrittlichsten KI-Systeme zu minimalen Kosten und beschleunigt so die breite Akzeptanz von KI.
Die Rubin-Plattform nutzt ein extremes Codesign über die sechs Chips hinweg – die NVIDIA Vera CPU, die NVIDIA Rubin GPU, den NVIDIA NVLink™ 6 Switch, den NVIDIA ConnectX®-9 SuperNIC, die NVIDIA BlueField®-4 DPU und den NVIDIA Spectrum™-6 Ethernet Switch – um die Trainingszeit und die Kosten für Inferenztoken drastisch zu reduzieren.
„Rubin kommt genau zum richtigen Zeitpunkt, da die Nachfrage nach KI-Rechenleistung für Training und Inferenz rasant steigt“, sagte Jensen Huang, Gründer und CEO von NVIDIA. „Mit unserem jährlichen Rhythmus, eine neue Generation von KI-Supercomputern auf den Markt zu bringen – und der extremen Co-Design-Technologie für sechs neue Chips – macht Rubin einen Riesenschritt in Richtung der nächsten Stufe der KI.“
Benannt nach Vera Florence Cooper Rubin – der bahnbrechenden amerikanischen Astronomin, deren Entdeckungen das Verständnis der Menschheit vom Universum revolutionierten – umfasst die Rubin-Plattform die NVIDIA Vera Rubin NVL72 Rack-Scale-Lösung und das NVIDIA HGX Rubin NVL8-System.
Die Rubin-Plattform führt fünf Innovationen ein, darunter die neuesten Generationen der NVIDIA NVLink-Verbindungstechnologie, die Transformer Engine, Confidential Computing und die RAS Engine sowie die NVIDIA Vera CPU. Diese bahnbrechenden Entwicklungen beschleunigen agentenbasierte KI, fortgeschrittenes Schließen und die Inferenz von Mixture-of-Experts-Modellen (MoE) im großen Maßstab – und das zu bis zu zehnmal geringeren Kosten pro Token der NVIDIA Blackwell-Plattform. Im Vergleich zum Vorgänger trainiert die NVIDIA Rubin-Plattform MoE-Modelle mit viermal weniger GPUs und beschleunigt so die KI-Einführung.
Breites Ökosystem an Unterstützung
Zu den weltweit führenden KI-Laboren, Cloud-Service-Anbietern, Computerherstellern und Startups, die Rubin voraussichtlich einsetzen werden, gehören Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab und xAI.
Sam Altman, CEO von OpenAI: „Intelligenz skaliert mit Rechenleistung. Wenn wir mehr Rechenleistung bereitstellen, werden die Modelle leistungsfähiger, lösen komplexere Probleme und erzielen eine größere Wirkung für die Menschen. Die NVIDIA Rubin-Plattform hilft uns, diesen Fortschritt weiter voranzutreiben, sodass fortschrittliche Intelligenz allen zugutekommt.“
Dario Amodei, Mitgründer und CEO von Anthropic: „Die Effizienzgewinne der NVIDIA Rubin-Plattform stellen einen Infrastrukturfortschritt dar, der längere Speicherkapazitäten, bessere Schlussfolgerungen und zuverlässigere Ergebnisse ermöglicht. Unsere Zusammenarbeit mit NVIDIA unterstützt unsere Sicherheitsforschung und unsere zukunftsweisenden Modelle.“
Mark Zuckerberg, Gründer und CEO von Meta: „Die Rubin-Plattform von NVIDIA verspricht den Quantensprung in Leistung und Effizienz, der erforderlich ist, um die fortschrittlichsten Modelle Milliarden von Menschen zugänglich zu machen.“
Elon Musk, Gründer und CEO von xAI: „💚🎉🚀 🤖NVIDIA Rubin wird ein Raketenantrieb für KI sein. Wenn Sie hochmoderne Modelle in großem Umfang trainieren und einsetzen wollen, ist dies die Infrastruktur Ihrer Wahl – und Rubin wird die Welt daran erinnern, dass NVIDIA der Goldstandard ist.💚🎉🚀 🤖“
Satya Nadella, Vorstandsvorsitzender und CEO von Microsoft: „Wir bauen die leistungsstärksten KI-Superfabriken der Welt, um jede Arbeitslast überall mit maximaler Leistung und Effizienz zu bewältigen. Mit der Integration von NVIDIA Vera Rubin GPUs werden wir Entwickler und Unternehmen in die Lage versetzen, auf völlig neue Weise zu entwickeln, zu analysieren und zu skalieren.“
Mike Intrator, Mitgründer und CEO von CoreWeave: „Wir haben CoreWeave entwickelt, um Pioniere bei der Beschleunigung ihrer Innovationen mit der unübertroffenen Leistung unserer speziell entwickelten KI-Plattform zu unterstützen und die passende Technologie für die jeweiligen Workloads bereitzustellen. Die NVIDIA Rubin-Plattform stellt einen wichtigen Fortschritt für logisches Denken, agentenbasierte Prozesse und groß angelegte Inferenz-Workloads dar, und wir freuen uns, sie in unsere Plattform zu integrieren. Mit CoreWeave Mission Control als Betriebsstandard können wir neue Funktionen schnell integrieren und in enger Partnerschaft mit NVIDIA zuverlässig im Produktionsmaßstab ausführen.“
Matt Garman, CEO von AWS: „AWS und NVIDIA treiben seit über 15 Jahren gemeinsam die Innovation im Bereich Cloud-KI voran. Die NVIDIA Rubin-Plattform auf AWS unterstreicht unser kontinuierliches Engagement für die Bereitstellung modernster KI-Infrastruktur, die unseren Kunden beispiellose Auswahlmöglichkeiten und Flexibilität bietet. Durch die Kombination der fortschrittlichen KI-Technologie von NVIDIA mit der bewährten Skalierbarkeit, Sicherheit und den umfassenden KI-Services von AWS können Kunden ihre anspruchsvollsten KI-Anwendungen schneller und kostengünstiger entwickeln, trainieren und bereitstellen – und so ihren Weg von der Experimentierphase zur Produktion in jeder Größenordnung beschleunigen.“
Sundar Pichai, CEO von Google und Alphabet: „Wir sind stolz auf unsere langjährige und enge Partnerschaft mit NVIDIA. Um die hohe Kundennachfrage nach NVIDIA-GPUs zu decken, konzentrieren wir uns darauf, die bestmögliche Umgebung für deren Hardware in der Google Cloud bereitzustellen. Unsere Zusammenarbeit wird fortgesetzt, indem wir unseren Kunden die beeindruckenden Funktionen der Rubin-Plattform zugänglich machen und ihnen so die Skalierbarkeit und Leistung bieten, die sie benötigen, um die Grenzen der KI zu erweitern.“
Clay Magouyrk, CEO von Oracle: „Oracle Cloud Infrastructure ist eine Hyperscale-Cloud, die für höchste Leistung entwickelt wurde. Gemeinsam mit NVIDIA erweitern wir die Grenzen dessen, was Kunden mit KI entwickeln und skalieren können. Mit gigascale KI-Fabriken, die auf der NVIDIA Vera Rubin-Architektur basieren, bietet OCI Kunden die Infrastrukturgrundlage, die sie benötigen, um die Grenzen des Modelltrainings, der Inferenz und der praktischen Auswirkungen von KI zu erweitern.“
Michael Dell, Vorstandsvorsitzender und CEO von Dell Technologies: „Die NVIDIA Rubin-Plattform stellt einen bedeutenden Fortschritt in der KI-Infrastruktur dar. Durch die Integration von Rubin in die Dell AI Factory mit NVIDIA schaffen wir eine Infrastruktur, die massive Token-Volumina und mehrstufige Schlussfolgerungen verarbeiten kann und gleichzeitig die Leistung und Ausfallsicherheit bietet, die Unternehmen und Neoclouds für den großflächigen Einsatz von KI benötigen.“
Antonio Neri, Präsident und CEO von HPE: „KI verändert nicht nur Arbeitslasten, sondern die Grundlagen der IT grundlegend und zwingt uns, jede Infrastrukturebene – vom Netzwerk bis zur Rechenleistung – neu zu denken. Mit der NVIDIA Vera Rubin Plattform entwickelt HPE die nächste Generation sicherer, KI-nativer Infrastruktur, wandelt Daten in Intelligenz um und ermöglicht Unternehmen, sich zu echten KI-Fabriken zu entwickeln.“
Yuanqing Yang, Vorstandsvorsitzender und CEO von Lenovo: „Lenovo setzt auf die NVIDIA Rubin Plattform der nächsten Generation und nutzt unsere Flüssigkeitskühlungslösung Neptune sowie unsere globale Reichweite, Fertigungseffizienz und Serviceabdeckung, um Unternehmen beim Aufbau von KI-Fabriken zu unterstützen, die als intelligente, beschleunigte Motoren für Erkenntnisse und Innovationen dienen. Gemeinsam gestalten wir eine KI-gesteuerte Zukunft, in der effiziente und sichere KI zum Standard für jedes Unternehmen wird.“
Entwickelt für skalierbare Intelligenz:
Agentische KI und Modelle für logisches Denken definieren zusammen mit modernsten Videogenerierungs-Workloads die Grenzen der Rechenleistung neu. Mehrstufige Problemlösungen erfordern Modelle, die lange Token-Sequenzen verarbeiten, analysieren und darauf reagieren. Die Rubin-Plattform wurde entwickelt, um den Anforderungen komplexer KI-Workloads gerecht zu werden und umfasst fünf bahnbrechende Technologien:
- NVIDIA NVLink der sechsten Generation: Ermöglicht die schnelle und nahtlose GPU-zu-GPU-Kommunikation, die für moderne, leistungsstarke MoE-Modelle erforderlich ist. Jede GPU bietet eine Bandbreite von 3,6 TB/s, während das Vera Rubin NVL72 Rack 260 TB/s bereitstellt – mehr Bandbreite als das gesamte Internet. Dank integrierter Netzwerk-Rechenleistung zur Beschleunigung kollektiver Operationen sowie neuer Funktionen für verbesserte Wartungsfreundlichkeit und Ausfallsicherheit ermöglicht der NVIDIA NVLink 6 Switch ein schnelleres und effizienteres KI-Training und -Inferenz in großem Umfang.
- NVIDIA Vera CPU: Die NVIDIA Vera wurde für agentenbasiertes Schließen entwickelt und ist die energieeffizienteste CPU für große KI-Systeme. Die NVIDIA CPU verfügt über 88 speziell angefertigte NVIDIA Olympus-Kerne, volle Armv9.2-Kompatibilität und ultraschnelle NVLink-C2C-Konnektivität. Vera bietet außergewöhnliche Leistung, Bandbreite und branchenführende Effizienz für ein breites Spektrum moderner Rechenzentrums-Workloads.
- NVIDIA Rubin GPU: Ausgestattet mit einer Transformer Engine der dritten Generation mit hardwarebeschleunigter adaptiver Komprimierung liefert die Rubin GPU 50 Petaflops NVFP4-Rechenleistung für KI-Inferenz.
- NVIDIA Confidential Computing der dritten Generation: Vera Rubin NVL72 ist die erste Rack-Scale-Plattform, die NVIDIA Confidential Computing bietet – wodurch die Datensicherheit über CPU-, GPU- und NVLink-Domänen hinweg gewährleistet wird – und so die weltweit größten proprietären Modelle, Trainings- und Inferenz-Workloads schützt.
- RAS-Engine der zweiten Generation: Die Rubin-Plattform – bestehend aus GPU, CPU und NVLink – bietet Echtzeit-Systemzustandsprüfungen, Fehlertoleranz und proaktive Wartung für maximale Systemproduktivität. Das modulare, kabellose Rack-Design ermöglicht eine bis zu 18-mal schnellere Montage und Wartung als Blackwell.
KI-nativer Speicher und sichere, softwaredefinierte Infrastruktur:
NVIDIA Rubin stellt die NVIDIA Inference Context Memory Storage Platform vor , eine neue Klasse von KI-nativer Speicherinfrastruktur, die für die Skalierung des Inferenzkontexts im Gigamaßstab entwickelt wurde.
Die Plattform, die auf NVIDIA BlueField-4 basiert, ermöglicht die effiziente gemeinsame Nutzung und Wiederverwendung von Key-Value-Cache-Daten in der gesamten KI-Infrastruktur und verbessert so Reaktionsfähigkeit und Durchsatz bei gleichzeitiger Ermöglichung einer vorhersehbaren und energieeffizienten Skalierung von agentenbasierter KI.
Da KI-Fabriken zunehmend auf Bare-Metal- und Multi-Tenant-Bereitstellungsmodelle setzen, wird die Aufrechterhaltung einer starken Infrastrukturkontrolle und -isolation unerlässlich.
BlueField-4 führt außerdem die Advanced Secure Trusted Resource Architecture (ASTRA) ein, eine System-Level-Trust-Architektur, die Entwicklern von KI-Infrastrukturen einen einzigen, vertrauenswürdigen Kontrollpunkt bietet, um groß angelegte KI-Umgebungen sicher bereitzustellen, zu isolieren und zu betreiben, ohne die Leistung zu beeinträchtigen.
Da sich KI-Anwendungen in Richtung mehrstufiger agentenbasierter Argumentation entwickeln, müssen KI-native Organisationen weitaus größere Mengen an Inferenzkontext über Benutzer, Sitzungen und Dienste hinweg verwalten und teilen.
Unterschiedliche Formen für unterschiedliche Arbeitslasten:
NVIDIA Vera Rubin NVL72 bietet ein einheitliches, sicheres System, das 72 NVIDIA Rubin GPUs, 36 NVIDIA Vera CPUs, NVIDIA NVLink 6, NVIDIA ConnectX-9 SuperNICs und NVIDIA BlueField-4 DPUs kombiniert.
NVIDIA bietet außerdem die NVIDIA HGX Rubin NVL8-Plattform an, ein Serverboard, das acht Rubin-GPUs über NVLink verbindet und so x86-basierte generative KI-Plattformen unterstützt. Die HGX Rubin NVL8-Plattform beschleunigt Training, Inferenz und wissenschaftliches Rechnen für KI- und High-Performance-Computing-Workloads.
NVIDIA DGX SuperPOD™ dient als Referenz für den Einsatz von Rubin-basierten Systemen in großem Umfang und integriert entweder NVIDIA DGX Vera Rubin NVL72- oder DGX Rubin NVL8-Systeme mit NVIDIA BlueField-4 DPUs, NVIDIA ConnectX-9 SuperNICs, NVIDIA InfiniBand-Netzwerken und der NVIDIA Mission Control™-Software.
Ethernet-Netzwerke der nächsten Generation
Fortschrittliche Ethernet-Netzwerke und Speichersysteme sind wichtige Bestandteile der KI-Infrastruktur, die dafür unerlässlich sind, Rechenzentren mit voller Geschwindigkeit am Laufen zu halten, die Leistung und Effizienz zu verbessern und die Kosten zu senken.
NVIDIA Spectrum-6 Ethernet ist die nächste Generation von Ethernet für KI-Netzwerke. Es wurde entwickelt, um Rubin-basierte KI-Fabriken mit höherer Effizienz und größerer Ausfallsicherheit zu skalieren und wird durch 200G SerDes-Kommunikationsschaltungen, integrierte Optiken und KI-optimierte Fabrics ermöglicht.
Die auf der Spectrum-6-Architektur basierenden optischen Switch-Systeme von Spectrum-X Ethernet Photonics bieten eine zehnfach höhere Zuverlässigkeit und eine fünffach längere Verfügbarkeit für KI-Anwendungen bei gleichzeitig fünffach besserer Energieeffizienz und maximieren so die Leistung pro Watt im Vergleich zu herkömmlichen Methoden. Die Spectrum-XGS-Ethernet-Technologie, Teil der Spectrum-X-Ethernet-Plattform, ermöglicht es, Standorte, die Hunderte von Kilometern voneinander entfernt sind, als eine einzige KI-Umgebung zu betreiben.
Zusammen definieren diese Innovationen die nächste Generation der NVIDIA Spectrum-X Ethernet-Plattform, die mit extremem Codesign für Rubin entwickelt wurde, um KI-Fabriken im großen Maßstab zu ermöglichen und den Weg für zukünftige Umgebungen mit Millionen von GPUs zu ebnen.
Rubin-Bereitschaft
NVIDIA Rubin befindet sich in der vollen Produktionsphase, und Rubin-basierte Produkte werden ab der zweiten Jahreshälfte 2026 von Partnern erhältlich sein.
Zu den ersten Cloud-Anbietern, die im Jahr 2026 auf Vera Rubin basierende Instanzen einsetzen werden, gehören AWS, Google Cloud, Microsoft und OCI sowie die NVIDIA Cloud-Partner CoreWeave, Lambda, Nebius und Nscale.
Microsoft wird NVIDIA Vera Rubin NVL72 Rack-Scale-Systeme als Teil der KI-Rechenzentren der nächsten Generation einsetzen, einschließlich der zukünftigen Fairwater AI Superfactory-Standorte.
Die Rubin-Plattform wurde entwickelt, um beispiellose Effizienz und Leistung für Trainings- und Inferenz-Workloads zu bieten und bildet die Grundlage für Microsofts Cloud-KI-Funktionen der nächsten Generation. Microsoft Azure bietet eine optimal angepasste Plattform, die es Kunden ermöglicht, Innovationen in Unternehmens-, Forschungs- und Verbraucheranwendungen zu beschleunigen.
CoreWeave wird ab der zweiten Jahreshälfte 2026 Systeme auf Basis von NVIDIA Rubin in seine KI-Cloud-Plattform integrieren. CoreWeave ist so konzipiert, dass mehrere Architekturen parallel betrieben werden können. Dadurch können Kunden Rubin in ihre Umgebungen einbinden, wo es die größte Wirkung bei Trainings-, Inferenz- und agentenbasierten Workloads erzielt.
Gemeinsam mit NVIDIA wird CoreWeave KI-Pionieren dabei helfen, die Fortschritte von Rubin in den Bereichen Reasoning und MoE-Modelle zu nutzen und gleichzeitig mit CoreWeave Mission Control die für die KI-Produktion über den gesamten Lebenszyklus hinweg erforderliche Leistung, Betriebssicherheit und Skalierbarkeit zu gewährleisten .
Darüber hinaus wird erwartet, dass Cisco, Dell, HPE, Lenovo und Supermicro eine breite Palette von Servern auf Basis von Rubin-Produkten anbieten werden.
KI-Labore wie Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab und xAI setzen auf die NVIDIA Rubin Plattform, um größere, leistungsfähigere Modelle zu trainieren und multimodale Systeme mit langem Kontext mit geringerer Latenz und zu niedrigeren Kosten als mit früheren GPU-Generationen bereitzustellen.
Die Infrastruktursoftware- und Speicherpartner AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data und WEKA arbeiten mit NVIDIA zusammen, um Plattformen der nächsten Generation für die Rubin-Infrastruktur zu entwickeln.
Die Rubin-Plattform stellt die dritte Generation der Rack-Scale-Architektur von NVIDIA dar und umfasst mehr als 80 Partner im NVIDIA MGX™-Ökosystem.
Um diese Leistungsdichte zu erschließen, hat Red Hat heute eine erweiterte Zusammenarbeit mit NVIDIA angekündigt. Ziel ist die Bereitstellung eines vollständigen KI-Stacks, der für die NVIDIA Rubin-Plattform optimiert ist und Red Hats Hybrid-Cloud-Portfolio umfasst, darunter Red Hat Enterprise Linux, Red Hat OpenShift und Red Hat AI. Diese Lösungen werden von der überwiegenden Mehrheit der Fortune Global 500-Unternehmen eingesetzt.
