CES 2026: NVIDIA DGX Spark und DGX Station treiben die neuesten Open-Source- und Frontier-Modelle vom Desktop aus an.

Open-Source-KI beschleunigt Innovationen in allen Branchen, und NVIDIA DGX Spark und DGX Station wurden entwickelt, um Entwicklern dabei zu helfen, Innovationen in Wirkung umzusetzen.

NVIDIA hat heute auf der CES-Messe vorgestellt, wie die Desktop-KI-Supercomputer DGX Spark und DGX Station es Entwicklern ermöglichen, die neuesten offenen und zukunftsweisenden KI-Modelle auf einem lokalen Desktop-System zu nutzen, von Modellen mit 100 Milliarden Parametern auf DGX Spark bis hin zu Modellen mit 1 Billion Parametern auf DGX Station.

Ausgestattet mit der NVIDIA Grace Blackwell-Architektur, mit großem einheitlichem Speicher und KI-Leistung auf Petaflop-Niveau, bieten diese Systeme Entwicklern neue Möglichkeiten, lokal zu entwickeln und problemlos in die Cloud zu skalieren.

Leistungssteigerung von Open-Source-KI-Modellen

Dank kontinuierlicher Fortschritte bei der Modelloptimierung und der Zusammenarbeit mit der Open-Source-Community kann nun eine Vielzahl hochoptimierter Open-Source-Modelle, für deren Ausführung bisher ein Rechenzentrum erforderlich gewesen wäre, auf dem Desktop mit DGX Spark und DGX Station beschleunigt werden.

DGX Spark ist mit NVIDIA AI-Software und NVIDIA CUDA-X- Bibliotheken vorkonfiguriert und bietet Entwicklern, Forschern und Datenwissenschaftlern eine leistungsstarke Plug-and-Play-Optimierung zum Erstellen, Feinabstimmen und Ausführen von KI.

Spark bietet allen Entwicklern die Grundlage, um die neuesten KI-Modelle direkt am Arbeitsplatz auszuführen; Station ermöglicht Unternehmen und Forschungslaboren den Einsatz fortschrittlicherer, groß angelegter KI-Modelle. Die Systeme unterstützen die Ausführung der neuesten Frameworks und Open-Source-Modelle – einschließlich der kürzlich angekündigten NVIDIA Nemotron 3-Modelle – direkt auf Desktop-Computern.

Die NVIDIA Blackwell-Architektur, die DGX Spark antreibt, beinhaltet das NVFP4-Datenformat, das es ermöglicht, KI-Modelle um bis zu 70 % zu komprimieren und die Leistung zu steigern, ohne Intelligenz einzubüßen.

NVIDIAs Kooperationen mit dem Open-Source-Software-Ökosystem, wie beispielsweise die Zusammenarbeit mit llama.cpp, steigern die Leistung weiter und erzielen im Durchschnitt eine Leistungssteigerung von 35 % beim Ausführen modernster KI-Modelle auf DGX Spark. Llama.cpp beinhaltet außerdem eine Verbesserung der Benutzerfreundlichkeit, die die Ladezeiten von LLM beschleunigt.

Die DGX Station, ausgestattet mit dem GB300 Grace Blackwell Ultra Superchip und 775 GB kohärentem Speicher mit FP4-Präzision, kann Modelle mit bis zu einer Billion Parametern ausführen und bietet damit führenden KI-Laboren modernste Rechenleistung für umfangreiche Modelle direkt am Arbeitsplatz. Dies umfasst eine Vielzahl fortschrittlicher KI-Modelle, darunter Kimi-K2 Thinking, DeepSeek-V3.2, Mistral Large 3, Meta Llama 4 Maverick, Qwen3 und OpenAI gpt-oss-120b.

„NVIDIA GB300 wird typischerweise als Rack-System eingesetzt“, so Kaichao You, Hauptentwickler von vLLM. „Das erschwert es Projekten wie vLLM, direkt auf dem leistungsstarken GB300-Superchip zu testen und zu entwickeln. DGX Station ändert dies. Durch die Bereitstellung von GB300 in einem kompakten, platzsparenden System ermöglicht DGX Station vLLM, GB300-spezifische Funktionen deutlich kostengünstiger zu testen und zu entwickeln. Dies beschleunigt die Entwicklungszyklen und erleichtert vLLM die kontinuierliche Validierung und Optimierung für GB300.“

„Die DGX Station bringt GPU-Leistung der Rechenzentrumsklasse direkt in mein Büro“, sagte Jerry Zhou, Community-Mitglied bei SGLang. „Sie ist leistungsstark genug, um sehr große Modelle wie Qwen3-235B zu bedienen, Trainingsframeworks mit großen Modellkonfigurationen zu testen und CUDA-Kernel mit extrem großen Matrixgrößen zu entwickeln – alles lokal, ohne auf Cloud-Racks angewiesen zu sein. Das verkürzt die Entwicklungszyklen für Systeme und Frameworks drastisch.“

NVIDIA wird die Leistungsfähigkeit der DGX Station live auf der CES präsentieren und Folgendes demonstrieren:

  • LLM-Vortraining, das mit atemberaubenden 250.000 Token pro Sekunde abläuft.
  • Eine umfangreiche Datenvisualisierung von Millionen von Datenpunkten in Kategorienclustern. Der Workflow für die Themenmodellierung nutzt Techniken und Algorithmen des maschinellen Lernens, die durch die NVIDIA cuML-Bibliothek beschleunigt werden.
  • Visualisierung massiver Wissensdatenbanken mit hoher Genauigkeit unter Verwendung von Text to Knowledge Graph und Llama 3.3 Nemotron Super 49B.

Erweiterung von KI und Kreativ-Workflows

DGX Spark und Station wurden speziell für die Unterstützung des gesamten KI-Entwicklungszyklus entwickelt, von der Prototypentwicklung und Feinabstimmung bis hin zu Inferenz und Data Science, für eine breite Palette branchenspezifischer KI-Anwendungen in den Bereichen Gesundheitswesen, Robotik, Einzelhandel, kreative Arbeitsabläufe und mehr.

Für Kreative bieten die neuesten Diffusions- und Videogenerierungsmodelle, darunter FLUX.2 und FLUX.1 von Black Forest Labs sowie Qwen-Image von Alibaba, jetzt Unterstützung für NVFP4. Dies reduziert den Speicherbedarf und beschleunigt die Leistung. Das neue Videomodell LTX-2 von Lightricks steht ab sofort zum Download bereit und bietet NVFP8-quantisierte Checkpoints für NVIDIA-GPUs – für eine Qualität auf dem Niveau führender Cloud-Modelle.

Live-Demonstrationen auf der CES verdeutlichen, wie DGX Spark anspruchsvolle Videogenerierungs-Workloads von den Laptops der Kreativen auslagern kann und dabei eine 8-fache Beschleunigung im Vergleich zu einem High-End-MacBook Pro mit M4 Max bietet, wodurch lokale Systeme für ununterbrochenes kreatives Arbeiten frei werden.

Die Open-Source- Modding-Plattform RTX Remix soll es 3D-Künstlern und Moddern schon bald ermöglichen, mit DGX Spark und generativer KI schneller zu arbeiten. Weitere CES-Demonstrationen zeigen, wie ein Mod-Team die gesamte Asset-Erstellung an DGX Spark auslagern kann, wodurch die PCs für unterbrechungsfreies Modding frei werden und Änderungen im Spiel in Echtzeit angezeigt werden.

KI-gestützte Programmierassistenten revolutionieren die Produktivität von Entwicklern. Auf der CES präsentiert NVIDIA einen lokalen CUDA-Programmierassistenten auf Basis von NVIDIA Nsight auf DGX Spark. Dieser ermöglicht es Entwicklern, Quellcode lokal und sicher zu speichern und gleichzeitig von KI-gestützter Unternehmensentwicklung zu profitieren.

Branchenführer bestätigen den Wandel hin zu lokaler KI

Da die Nachfrage nach sicherer, leistungsstarker KI am Netzwerkrand wächst, gewinnt DGX Spark branchenweit an Bedeutung.

Führende Softwareunternehmen, Open-Source-Innovatoren und globale Workstation-Partner setzen auf DGX Spark, um lokale Inferenz, agentenbasierte Workflows und abrufgestützte Generierung ohne die Komplexität einer zentralisierten Infrastruktur zu ermöglichen.

Ihre Perspektiven unterstreichen, wie DGX Spark schnellere Iterationen, eine bessere Kontrolle über Daten und geistiges Eigentum sowie neue, interaktivere KI-Erlebnisse auf dem Desktop ermöglicht.

Auf der CES demonstriert NVIDIA, wie man die Rechenleistung von DGX Spark mit dem Hugging Face Reachy Mini-Roboter nutzen kann, um KI-Agenten in die reale Welt zu bringen.

„Offene Modelle geben Entwicklern die Freiheit, KI nach ihren Vorstellungen zu gestalten, und DGX Spark bringt diese Möglichkeiten direkt auf den Desktop“, so Jeff Boudier, Vice President of Product bei Hugging Face. „In Verbindung mit Reachy Mini werden Ihre lokalen KI-Agenten lebendig und erhalten eine eigene Stimme. Sie können Sie sehen, Ihnen zuhören und mit ausdrucksstarken Bewegungen reagieren – so wird leistungsstarke KI zu etwas, mit dem Sie wirklich interagieren können.“

Hugging Face und NVIDIA haben eine Schritt-für-Schritt-Anleitung zum Erstellen eines interaktiven KI-Agenten mit DGX Spark und Reachy Mini veröffentlicht.

„DGX Spark bringt KI-Inferenz an den Netzwerkrand“, sagte Ed Anuff, Vizepräsident für Daten- und KI-Plattformstrategie bei IBM. „Mit OpenRAG auf Spark erhalten Anwender einen vollständigen, in sich geschlossenen RAG-Stack in einem Paket – Extraktion, Einbettung, Abruf und Inferenz.“

„Für Unternehmen, die volle Kontrolle über Sicherheit, Governance und geistiges Eigentum benötigen, bietet NVIDIA DGX Spark KI-Leistung der Petaflop-Klasse für JetBrains-Kunden“, sagte Kirill Skrygan, CEO von JetBrains. „Unabhängig davon, ob Kunden Cloud-, On-Premises- oder Hybrid-Bereitstellungen bevorzugen, ist JetBrains AI darauf ausgelegt, ihre Bedürfnisse optimal zu erfüllen.“

TRINITY, ein intelligentes, selbstbalancierendes, dreirädriges Ein-Personen-Fahrzeug, das für den städtischen Verkehr konzipiert wurde, wird auf der CES ausgestellt und nutzt DGX Spark als KI-gestütztes Gehirn für KI-Inferenz von Open-Source-Echtzeit-Vision-Sprachmodell-Workloads.

„TRINITY repräsentiert die Zukunft der Mikromobilität – eine Welt, in der Menschen, Fahrzeuge und KI-Agenten nahtlos zusammenarbeiten“, so will.i.am. „Mit NVIDIA DGX Spark als KI-Gehirn ermöglicht TRINITY dialogbasierte, zielorientierte Arbeitsabläufe, die die Interaktion der Menschen mit Mobilität in vernetzten Städten revolutionieren. Es ist ein intelligentes Fahrzeug, von Grund auf für den Agenten entwickelt.“

Beschleunigung der KI-Entwicklerakzeptanz

DGX Spark-Playbooks unterstützen Entwickler beim schnellen Einstieg in reale KI-Projekte. Auf der CES erweitert NVIDIA diese Bibliothek um sechs neue Playbooks und vier wichtige Updates. Die Themen umfassen unter anderem das neueste NVIDIA Nemotron 3 Nano-Modell, Robotik-Training, Bildverarbeitungsmodelle, die Feinabstimmung von KI-Modellen mit zwei DGX Spark-Systemen, Genomik und Finanzanalyse.

Mit der Verfügbarkeit von DGX Station im Laufe dieses Jahres werden weitere Playbooks hinzugefügt, um Entwicklern den Einstieg in NVIDIA GB300-Systeme zu erleichtern.

Die Softwareunterstützung für NVIDIA AI Enterprise ist ab sofort für DGX Spark- und GB10-Systeme von Herstellerpartnern verfügbar. Sie umfasst Bibliotheken, Frameworks und Microservices für die KI-Anwendungsentwicklung und Modellinstallation sowie Operatoren und Treiber zur GPU-Optimierung und ermöglicht so eine schnelle und zuverlässige KI-Entwicklung und -Bereitstellung. Lizenzen werden voraussichtlich Ende Januar erhältlich sein.

Verfügbarkeit

DGX Spark und GB10-Systeme der Herstellerpartner sind erhältlich bei Acer , Amazon , ASUS , Dell Technologies, GIGABYTE , HP Inc., Lenovo, Micro Center, MSI und PNY .

Die DGX Station wird ab Frühjahr 2026 von ASUS, Boxx, Dell Technologies, GIGABYTE, HP Inc., MSI und Supermicro erhältlich sein.