CES 2026: Giga Computing kündigt neuen KI-Desktop-Supercomputer zum Entwickeln und Ausführen von KI an

Giga Computing, eine Tochtergesellschaft von GIGABYTE und Brancheninnovator sowie Marktführer im Bereich KI-Hardware und fortschrittlicher Kühllösungen, hat heute mit dem GIGABYTE W775-V10 eine neue Desktop-Supercomputer-Lösung vorgestellt. Diese basiert auf der NVIDIA DGX Station und KI-Technologie und ermöglicht die Entwicklung fortschrittlicher KI-Anwendungen direkt am Arbeitsplatz. Die W775-Plattform, beschleunigt durch NVIDIA GB300 Grace Blackwell Ultra, verfügt über beeindruckende 775 GB kohärenten Speicher, um umfangreiche KI-Trainings- und Inferenz-Workloads lokal zu beschleunigen. Das System ist ab sofort am GIGABYTE-Stand auf der CES 2026 zu sehen. Ebenfalls auf der CES präsentiert Giga Computing Hochleistungssysteme, die vom Mini-PC über Server bis hin zu Rack-Infrastrukturen und deren Bereitstellung skalierbar sind.

GIGABYTE W775-V10: Flüssigkeitsgekühlter KI-Desktop-PC

Dies ist der ultimative mobile KI-Supercomputer, entwickelt für die Entwicklung und den Betrieb von KI-Anwendungen. Er basiert auf der NVIDIA GB300 Grace Blackwell Ultra Desktop-Plattform und verfügt über einen massiven 775 GB kohärenten Speicher – und bietet damit eine beispiellose Rechenleistung für die lokale Entwicklung und Ausführung umfangreicher KI-Trainings- und Inferenz-Workloads. Dank der vorkonfigurierten NVIDIA KI-Software können KI-Entwickler, Forscher und Data Scientists große KI-Modelle schnell direkt am Arbeitsplatz prototypisieren, optimieren und inferieren und diese nahtlos im Rechenzentrum oder in der Cloud bereitstellen. Mit modernster Systemleistung und der NVIDIA KI-Software ist der GIGABYTE W775-V10 die ideale Lösung für Teams, die eine erstklassige mobile KI-Entwicklungsplattform benötigen.

Highlights am GIGABYTE-Stand:

  • GIGAPOD: KI-Lösungen im Rackmaßstab. Diese individuell anpassbaren Lösungen kombinieren 32 GIGABYTE GPU-Server mit Netzwerk, Speicher und mehr, um exzellente Leistung für LLMs und andere anspruchsvolle Workloads zu liefern. Auf der CES präsentiert Giga Computing Flüssigkeitskühlungslösungen mit AMD EPYC™ + AMD Instinct™ MI355X GPUs im GIGABYTE G4L3-ZX1 sowie eine Lösung mit Intel Xeon auf Basis eines NVIDIA HGX B300-Systems im GIGABYTE G4L4-SD3. Für eine erfolgreiche Rack-Implementierung wird außerdem ein Management-Rack benötigt. Daher wird der GIGABYTE N120-LS0 ausgestellt. Dieser Server vereinfacht die Verwaltung der Infrastrukturkomponenten (CDU, PDU und RDHx), die für Stromversorgung und Kühlung zuständig sind. Erfahren Sie mehr über GIGAPOD: https://www.gigabyte.com/Solutions/giga-pod-as-a-service
  • NVIDIA MGX-Plattformen: Zwei maßgeschneiderte und ausgewogene Lösungen beschleunigen die Markteinführung von KI-Fabriken und beschleunigten Workloads. Diese beiden modularen Server basieren auf einer 2:8:5-Topologie: Zwei Intel Xeon-CPUs sind mit entweder acht NVIDIA RTX PRO 6000 Blackwell Server Edition-GPUs oder acht NVIDIA RTX PRO 4500 Blackwell-GPUs kombiniert . Die fünf Netzwerkkomponenten bestehen aus einer NVIDIA BlueField-3 DPU und vier NVIDIA ConnectX-8 SuperNICs . Modelle: luftgekühlter GIGABYTE XL44-SX2 und eine wassergekühlte Version.
  • NVIDIA GB300 NVL72: Eine leistungsstarke Rack-Scale-Plattform mit 72 NVIDIA Blackwell Ultra GPUs und 36 Arm®  basierten NVIDIA Grace CPUs. Dank dieser sofort einsatzbereiten Architektur kann Giga Computing schnell leistungsstarke Systeme für anspruchsvolle Workloads bereitstellen – ideal für Hyperscaler, Cloud-Anbieter und KI-Dienstleister. Erfahren Sie mehr über NVIDIA GB300 NVL72: https://www.gigabyte.com/Solutions/nvidia-blackwell

Mit der Einführung des GIGABYTE W775-V10 und seinem erweiterten Portfolio an fortschrittlichen KI-Systemen verschiebt Giga Computing die Grenzen des Machbaren für KI-Innovationen – vom Desktop-PC bis zum Rechenzentrum. Durch die Integration modernster NVIDIA-Technologien in ein hochdichtes Serverdesign und präzise entwickelte Wärmelösungen ermöglicht Giga Computing Unternehmen jeder Größe, die Entwicklung zu beschleunigen, die Bereitstellung zu optimieren und KI-Workloads sicher zu skalieren.