Ich habe seit einem Jahr keine RTX‑Karte mehr, daher könnte ich es sowieso nicht nutzen.
Ich bin aber auch ehrlich: Das, was DLSS 5 am Bild verändert, spricht mich überhaupt nicht an.
Ich kann außerdem nur dieses Video von Daniel Owen empfehlen.
Denn was dort gezeigt wird, macht ziemlich deutlich, dass DLSS 5 sehr generativ arbeitet. Es werden nicht nur Zwischenbilder wie bei klassischem DLSS „erdacht“, sondern das endgültige Bild ist eine Interpretation der generativen KI, auch wenn sie sich stark an der Vorlage orientiert. Im Grunde fühlt es sich an wie ein AI‑Filter, der über jeden von der Engine ausgegebenen Frame gelegt wird. Dadurch sieht man am Ende gar nicht mehr das tatsächliche Rendering der Engine, sondern nur noch die KI‑Interpretation des Bildes.
Warum ich von einem AI‑Filter spreche, weil DLSS 5 bezieht sich ausschließlich auf das 2D‑Frame plus Bewegungsvektoren, ohne jegliche Informationen über Materialien oder deren physische Eigenschaften. Das klang im Marketing‑Sprech vorher etwas anders, aber im Video wird klar, dass die KI nur die Informationen aus dem 2D‑Render zur Verfügung hat.
Dadurch interpretiert die KI mehr, als man zunächst denkt. So entstehen Effekte wie zusätzliche Details wie Make‑up, weichere oder detailliertere Haut oder ein veränderter Haaransatz , nicht, weil die Engine das so rendert oder die Informationen mitgegeben werden, sondern weil das trainierte Modell solche Muster entsprechend gewichtet. Das wirkt vielleicht realistischer, ist aber nicht im originalen Render enthalten, sondern kommt rein aus dem Trainingsmodell.
Das erzeugt unter Umständen eine ganz andere Stimmung oder verändert sogar Wesenszüge von Figuren.
Daniel Owen geht im Video auf eine E‑Mail zwischen ihm und einem NVIDIA‑Mitarbeiter ein. Aus dieser E‑Mail und seiner Einschätzung habe ich die oben genannten Schlüsse gezogen.