CES 2026: Razer Forge AI Dev Workstation – Die Grundlage für den nächsten KI-Durchbruch

Razer™  kündigt die Razer Forge AI Dev Workstation an, eine neue Ergänzung seiner wachsenden Produktpalette an Hochleistungshardware für KI-Entwickler.

Diese wegweisende lokale Rechenplattform, die auf über 20 Jahren Erfahrung im Hochleistungs-Engineering basiert, ist für die anspruchsvollsten Trainings-, Inferenz- und Simulationsaufgaben von KI-Entwicklern, Forschern und Unternehmen konzipiert.

Die Forge AI Dev Workstation erfüllt Razers Vision von leistungsstarker, speziell entwickelter KI-Hardware und bietet durchgängige lokale Leistung mit sicherer On-Device-Rechenleistung, ohne Abonnementkosten und mit maximaler Reaktionsfähigkeit.

Bereit für die KI-Entwicklung

  • Unübertroffene KI-Beschleunigung – Unterstützt mehrere professionelle Grafikkarten und KI-Beschleuniger, darunter die branchenführenden GPUs der NVIDIA RTX PRO™ 6000 Blackwell-Serie. Die RTX PRO™ Desktop-GPUs wurden für die Beschleunigung professioneller Arbeitsabläufe entwickelt und kombinieren massiven Speicher, modernste KI und neuronales Rendering, um anspruchsvolle Projekte in Design, Ingenieurwesen und wissenschaftlichem Rechnen mit unübertroffener Geschwindigkeit und Präzision zu bewältigen.
  • Enorme Speicherbandbreite – Die Unterstützung von 8x DDR5 RDIMMs gewährleistet das sofortige Laden von Datensätzen und eliminiert E/A-Latenzen, sodass die GPUs für ein größeres und schnelleres Modelltraining optimal versorgt werden.
  • Unzerbrechliche Datenpipeline – Zwei 10-Gigabit-Ethernet-Anschlüsse ermöglichen blitzschnellen Netzwerkzugriff für die Übertragung massiver Trainingsdaten und Modelle mit bis zu 10 Gbit/s.
  • Rack-fähiges Design – Lässt sich mühelos von Einzelturm-Setups mit Rackmontage-Kompatibilität, Kabelmanagement-Pfaden und Luftstrom von vorne nach hinten skalieren, um dichte Cluster-Konfigurationen zu unterstützen.
  • Nahtlose Integration mit Razer AIKit – Razer AIKit wurde für eine einfache, sofort einsatzbereite Einrichtung entwickelt und bietet Cloud-Grade-GPU-Leistung sowie skalierbare Bereitstellung für KI-Entwickler, um LLMs lokal auf einer einzelnen GPU oder über einen Multi-GPU-Cluster auszuführen.