Die heute auf der CES-Messe vorgestellten Desktop- und Laptop-GPUs der GeForce RTX 50-Serie sind bereit, die nächste Ära der generativen und agentenbasierten KI-Inhaltserstellung voranzutreiben – und bieten neue Tools und Funktionen für Video, Livestreaming, 3D und mehr.
Die GPUs der GeForce RTX 50-Serie basieren auf der NVIDIA Blackwell -Architektur und können kreative generative KI-Modelle im Vergleich zur vorherigen Generation bei geringerem Speicherbedarf bis zu 2x schneller ausführen. Sie verfügen über NVIDIA-Encoder der neunten Generation für erweiterte Videobearbeitung und Livestreaming und werden mit NVIDIA DLSS 4 und bis zu 32 GB VRAM geliefert, um riesige 3D-Projekte zu bewältigen.
Diese GPUs werden mit verschiedenen Software-Updates geliefert, darunter zwei neue KI-gestützte NVIDIA Broadcast- Effekte, Updates für RTX Video und RTX Remix sowie NVIDIA NIM-Microservices – vorgefertigte und optimierte Modelle, die entwickelt wurden, um die Workflows zur KI-Inhaltserstellung auf RTX-KI-PCs anzukurbeln.
Entwickelt für das Zeitalter der generativen KI
Generative KI kann für Entwickler sensationelle Ergebnisse hervorbringen, doch da die Modelle immer komplexer und umfangreicher werden, kann es selbst auf der neuesten Hardware schwierig sein, generative KI auszuführen.
Die GeForce RTX 50-Serie bietet FP4-Unterstützung, um dieses Problem zu lösen. FP4 ist eine Methode mit niedrigerer Quantisierung, die der Dateikomprimierung ähnelt und die Modellgröße verringert. Im Vergleich zu FP16 – der Standardmethode, die die meisten Modelle verwenden – verwendet FP4 weniger als die Hälfte des Speichers und die GPUs der 50er-Serie bieten im Vergleich zur vorherigen Generation mehr als die doppelte Leistung. Dies kann mit den erweiterten Quantisierungsmethoden des NVIDIA TensorRT Model Optimizer praktisch ohne Qualitätsverlust erreicht werden .
Beispielsweise benötigt das FLUX.1 [dev] -Modell von Black Forest Labs bei FP16 über 23 GB VRAM, was bedeutet, dass es nur von der GeForce RTX 4090 und professionellen GPUs unterstützt werden kann. Bei FP4 benötigt FLUX.1 [dev] weniger als 10 GB, sodass es lokal auf mehr GeForce RTX-GPUs ausgeführt werden kann.
Mit einer GeForce RTX 4090 mit FP16 kann das Modell FLUX.1 [dev] Bilder in 15 Sekunden mit 30 Schritten generieren. Mit einer GeForce RTX 5090 mit FP4 können Bilder in etwas mehr als fünf Sekunden generiert werden.
Ein neuer NVIDIA AI Blueprint für 3D-gesteuerte generative KI basierend auf FLUX.1 [dev], der als NVIDIA NIM-Mikroservice angeboten wird, bietet Künstlern mehr Kontrolle über die textbasierte Bildgenerierung. Mit diesem Blueprint können Kreative einfache 3D-Objekte – von Hand erstellt oder mit KI generiert – verwenden und sie in einem 3D-Renderer wie Blender anordnen, um die KI-Bildgenerierung zu steuern.
Ein vorgefertigter Workflow auf Basis des FLUX NIM-Mikroservices und ComfyUI kann dann qualitativ hochwertige Bilder generieren, die der Komposition der 3D-Szene entsprechen.
Der NVIDIA Blueprint für 3D-gesteuerte generative KI wird voraussichtlich im Februar mithilfe eines Ein-Klick-Installationsprogramms über GitHub verfügbar sein.
Stability AI gab bekannt, dass sein Stable Point Aware 3D- oder SPAR3D-Modell diesen Monat auf RTX AI-PCs verfügbar sein wird. Dank der RTX-Beschleunigung wird das neue Modell von Stability AI dazu beitragen, das 3D-Design zu verändern und eine außergewöhnliche Kontrolle über die Erstellung von 3D-Inhalten zu bieten, indem es Echtzeitbearbeitung ermöglicht und die Möglichkeit bietet, aus einem einzigen Bild in weniger als einer Sekunde ein Objekt zu generieren.
Professionelles Video für alle
GPUs der GeForce RTX 50-Serie stellen einen Generationssprung bei NVIDIA-Encodern und -Decodern dar mit Unterstützung für das professionelle 4:2:2-Farbformat, Multiview-HEVC (MV-HEVC) für 3D- und Virtual-Reality-Videos (VR) sowie dem neuen AV1-Ultra-High-Quality-Modus.
Die meisten Consumer-Kameras sind auf 4:2:0-Farbkomprimierung beschränkt, was die Menge an Farbinformationen reduziert. 4:2:0 ist normalerweise für die Videowiedergabe in Browsern ausreichend, kann aber nicht die Farbtiefe liefern, die fortgeschrittene Videoeditoren für die Farbkorrektur von Videos benötigen. Das 4:2:2-Format liefert die doppelte Anzahl an Farbinformationen bei nur 1,3-facher Vergrößerung der RAW-Datei – und bietet damit eine ideale Balance für Videobearbeitungs-Workflows.
Aufgrund der größeren Dateigröße kann das Dekodieren von 4:2:2-Videos eine Herausforderung darstellen. Die GPUs der GeForce RTX 50-Serie bieten 4:2:2-Hardwareunterstützung, die pro Decoder bis zu achtmal mehr 4K-Videoquellen mit 60 Bildern pro Sekunde (fps) dekodieren kann und so eine reibungslose Videobearbeitung mit mehreren Kameras ermöglicht.
Die GeForce RTX 5090 GPU ist mit drei Encodern und zwei Decodern ausgestattet, die GeForce RTX 5080 GPU umfasst zwei Encoder und zwei Decoder, die 5070 Ti GPUs haben zwei Encoder mit einem einzigen Decoder und die GeForce RTX 5070 GPU umfasst einen einzigen Encoder und Decoder. Diese Multi-Encoder- und Decoder-Setups, gepaart mit schnelleren GPUs, ermöglichen es der GeForce RTX 5090, Videos 60 % schneller zu exportieren als die GeForce RTX 4090 und mit der vierfachen Geschwindigkeit der GeForce RTX 3090.
Die GPUs der GeForce RTX 50-Serie verfügen außerdem über den NVIDIA-Videoencoder der neunten Generation, NVENC, der eine 5 % bessere Videoqualität bei HEVC- und AV1-Kodierung (BD-BR) bietet, sowie einen neuen AV1-Ultra-Quality-Modus, der bei gleicher Qualität eine 5 % höhere Komprimierung erreicht. Sie enthalten außerdem den NVIDIA-Decoder der sechsten Generation mit der doppelten Dekodierungsgeschwindigkeit für H.264-Videos.
NVIDIA arbeitet ab Februar mit Adobe Premiere Pro, DaVinci Resolve von Blackmagic Design, Capcut und Wondershare Filmora zusammen, um diese Technologien zu integrieren.
Dank der zunehmenden Verbreitung von VR-, AR- und Mixed-Reality-Headsets wird 3D-Video immer beliebter. Die neuen GPUs der RTX 50-Serie unterstützen außerdem MV-HEVC-Codecs, um solche Formate in naher Zukunft freizuschalten.
Verbessertes Livestreaming
Livestreaming ist ein Balanceakt, bei dem der Streamer das Publikum unterhalten, eine Show produzieren und ein Videospiel spielen muss – alles zur gleichen Zeit. Top-Streamer können es sich leisten, Produzenten und Moderatoren einzustellen, um die Arbeitslast zu teilen, aber die meisten müssen diese Aufgaben alleine und oft in langen Schichten bewältigen – bis jetzt.
Streamlabs , eine Marke von Logitech und führender Anbieter von Broadcasting-Software und Tools für Content-Ersteller, arbeitet mit NVIDIA und Inworld AI zusammen , um den Streamlabs Intelligent Streaming Assistant zu entwickeln.
Streamlabs Intelligent Streaming Assistant ist ein KI-Agent, der als Sidekick, Produzent und technischer Support fungieren kann. Der Sidekick kann Streams als 3D-Avatar beitreten, um Fragen zu beantworten, Gameplay oder Chats zu kommentieren oder in ruhigen Phasen Gespräche zu initiieren. Er kann bei der Produktion von Streams helfen, indem er zu den relevantesten Szenen wechselt und während interessanter Gameplay-Momente Audio- und Videohinweise abspielt. Er kann sogar als IT-Assistent dienen, der beim Konfigurieren von Streams und bei der Fehlerbehebung hilft.
Streamlabs Intelligent Streaming Assistant basiert auf NVIDIA ACE-Technologien zur Erstellung digitaler Menschen und Inworld AI, einem KI-Framework für agentenbasierte KI-Erlebnisse . Der Assistent wird später in diesem Jahr verfügbar sein.
Millionen haben die NVIDIA Broadcast-App genutzt , um Büros und Studentenwohnheime mithilfe KI-gestützter Funktionen zur Verbesserung der Audio- und Videoqualität in Heimstudios zu verwandeln – ohne dass dafür teure Spezialausrüstung erforderlich wäre.
Der NVIDIA Broadcast-App werden zwei neue KI-gestützte Betaeffekte hinzugefügt.
Die erste Funktion, Studio Voice, verbessert den Klang des Mikrofons des Benutzers, sodass er dem eines hochwertigen Mikrofons entspricht. Die andere Funktion, Virtual Key Light, kann das Gesicht einer Person neu beleuchten, um eine gleichmäßige Abdeckung zu erzielen, als ob es von zwei Lichtern gut beleuchtet wäre.
Da sie anspruchsvolle KI-Modelle nutzen, werden diese Beta-Funktionen für Videokonferenzen oder Nicht-Gaming-Livestreams mit einer GeForce RTX 5080 GPU oder höher empfohlen. NVIDIA arbeitet daran, diese Funktionen in zukünftigen Updates auf weitere GeForce RTX GPUs auszuweiten.
Das NVIDIA Broadcast-Upgrade umfasst außerdem eine aktualisierte Benutzeroberfläche, mit der Benutzer mehr Effekte gleichzeitig anwenden können, sowie Verbesserungen bei der Entfernung von Hintergrundgeräuschen, virtuellen Hintergründen und Blickkontakteffekten.
Die aktualisierte NVIDIA Broadcast-App wird im Februar verfügbar sein.
Livestreamer können außerdem von NVENC – 5 % Verbesserung der BD-BR-Videoqualität für HEVC und AV1 – in der neuesten Beta der Enhanced Broadcast-Funktion von Twitch in OBS und dem verbesserten AV1-Encoder für das Streaming in Discord oder YouTube profitieren.
RTX Video – eine KI-Funktion, die die Videowiedergabe in beliebten Internetbrowsern wie Google Chrome und Microsoft Edge sowie lokal mit Video Super Resolution und HDR verbessert – erhält ein Update, um die GPU-Auslastung um 30 % zu senken und so die Palette der GeForce RTX-GPUs zu erweitern, die Video Super Resolution in höherer Qualität ausführen können.
Das RTX-Video-Update ist für eine zukünftige Version der NVIDIA-App geplant .
Beispiellose 3D-Renderleistung
Die GeForce RTX 5090 GPU bietet 32 GB GPU-Speicher – den größten aller GeForce RTX GPUs aller Zeiten, was einer Steigerung von 33 % gegenüber der GeForce RTX 4090 GPU entspricht. So können 3D-Künstler größere, detailreichere Welten erschaffen und gleichzeitig mehrere Anwendungen gleichzeitig nutzen. Außerdem können die neuen RT-Cores der vierten Generation der RTX 50-Serie 3D-Anwendungen 40 % schneller ausführen.
DLSS 4 führt Multi Frame Generation ein, um die Bildrate zu steigern, indem mithilfe von KI bis zu drei Frames pro gerendertem Frame generiert werden. Dies ermöglicht Animatoren, reibungslos mit 4x so vielen Frames durch eine Szene zu navigieren oder 3D-Inhalte mit 60 fps oder mehr zu rendern.
D5 Render und Chaos Vantage, zwei beliebte professionelle 3D-Apps für Architekten und Designer, werden im Februar Unterstützung für DLSS 4 hinzufügen.
3D-Künstler nutzen generative KI, um ihre Produktivität bei der Erstellung von 3D-Netzentwürfen, HDRi-Karten oder sogar Animationen zum Erstellen von Szenenprototypen zu steigern. Auf der CES kündigte Stability AI SPAR3D an, sein neues 3D-Modell, das mit RTX-Beschleunigung in Sekundenschnelle 3D-Netze aus Bildern erstellen kann.
NVIDIA RTX Remix – eine Modding-Plattform, mit der Modder Spielressourcen erfassen, Materialien automatisch mit generativen KI-Tools verbessern und atemberaubende RTX-Remaster mit vollständigem Raytracing erstellen können – unterstützt DLSS 4 und erhöht die grafische Wiedergabetreue und Bildraten, um den Realismus und das Eintauchen während des Spiels zu maximieren.
RTX Remix soll bald Neural Radiance Cache unterstützen, einen neuronalen Shader, der KI nutzt, um mit Live-Spieldaten zu trainieren und indirekte Beleuchtung pixelgenau abzuschätzen. RTX Remix-Entwickler können in ihren Mods auch Zugriff auf RTX Skin erwarten, die erste Raytracing-Implementierung von Sub-Surface-Scattering in Spielen. Mit RTX Skin können RTX Remix-Mods Charaktere mit einem neuen Grad an Realismus präsentieren, da Licht durch ihre Haut reflektiert und weitergegeben wird und sie so in den Welten verankert, in denen sie leben.
Die GPUs GeForce RTX 5090 und 5080 sind ab dem 30. Januar erhältlich, gefolgt von den GPUs GeForce RTX 5070 Ti und 5070 im Februar und Laptops der RTX 50-Serie im März.
Alle mit GeForce RTX-GPUs ausgestatteten Systeme umfassen die NVIDIA Studio-Plattformoptimierungen mit über 130 GPU-beschleunigten Apps zur Inhaltserstellung sowie NVIDIA Studio-Treiber, die umfassend getestet und monatlich veröffentlicht werden, um die Leistung zu verbessern und die Stabilität in beliebten Kreativanwendungen zu maximieren.