Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

Man kann sich doch zu jedem Preset, gleichgültig, ob DLSS 3.0, 4.0 (J, K) oder 4.5 (L, M), eine entsprechende DLSS-Qualität aussuchen bzw. überschreiben. Sogar eine benutzerdefinierte ist möglich. Wo ist Problem? :)

1768428740368.png

1768428609452.png

Ergänzung ()

Übrigens, hat schon jemand eine INT8-Version der nvngx_dlss.dll Bibliothek gefunden?
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Nö, auch du kannst anscheinend nicht lesen oder liest auch nur was du willst. Siehe oben. Ich hab gar nix "ohne DLSS" gefordert.
Ich verstehe, dass es ein Interesse daran gibt zu erfahren wie die Leistung nativ oder mit FSR 3 Quality aussieht. Auch wenn die Qualität nicht vergleichbar ist, müssen RDNA1-3 User so spielen, damit es spielbar ist.
ThirdLife schrieb:
Ich fänds nur super wenn nicht ausschliesslich DLSS getestet wird. Minimaler Unterschied.
Ja, das kann man natürlich machen.
Das kommt nur missverständlich rüber wenn du schreibst "nur 3% unterstützen DLSS". Gehe ich weiter zurück unterstützen die Spiele auch nur Direct X 9. Usw. Also nur 5% unterstützen Direct X12 von allen je erschienenen Spielen.^^
 
  • Gefällt mir
Reaktionen: ThirdLife
MaLow17 schrieb:
Übrigens, hat schon jemand eine INT8-Version der nvngx_dlss.dll Bibliothek gefunden?
Woher soll die kommen auf den RTX 20 und 30 Karten wird für DLSS 4.5 FP16 statt FP8 genutzt. DLSS 3 nutzt FP16 und DLSS 4 FP8. Sehe also nicht wo eine INT8 Datei herkommen sollte.
 
Zuletzt bearbeitet:
Hier finde ich sieht man die Unterschiede zwischen DLSS Quality 4.0 und Performance 4.5 ganz gut.

Ich finde performance 4.5 sieht besser aus als mit Quality 4.0. Und man bekommt auch scheinbar mehr FPS raus.

 
  • Gefällt mir
Reaktionen: mospider, ev4x, Quidproquo77 und eine weitere Person
@ev4x
Z. B. ein SDK-Leak, wie bei AMD, bei dem man an den Source Code kommen konnte und sich selbst eine INT8-Version der DLL kompilieren könnte.

INT8 sollte viel schneller als FP8 sein, wenn man z. B. tatsächlich INT8-Matrixmultiplikation verwendet. FP8 ist langsamer und ungenauer als INT8.
 
@MaLow17
Die INT8 Variante lief bei AMD aber mit weniger Performance und schlechterer Qualität. Ich glaube kaum das dir selbst wenn es existieren würde was bei Nvidia nützt.
 
Ich vermisse Vergleichsvideos bzw. Vergleichsbilder die mal die reine Upscalingqualität von DLSS 4.5 zwischen RTX20, RTX 30, RTX40 & RTX50 GPUs vergleichen, also z.B. RTX 2080 vs. RTX 3080 vs RTX 4080 vs RTX 5080, also Bild 4-geteilt mit dem jeweiligen gleichen Frame eines Benchmarks des selben Spiels, den man mit gleicher Grafik- & DLSS 4.5-Einstellung durchgeführt hat. Das wäre mal wirklich interessant, denn ich gehe stark davon aus, das die Bildqualität stark schwankt, mal vom Performanceverlust abgesehen. Bis jetzt habe ich das aber so noch nicht gefunden.
 
  • Gefällt mir
Reaktionen: Andre83hro
Quidproquo77 schrieb:
Ich verstehe, dass es ein Interesse daran gibt zu erfahren wie die Leistung nativ oder mit FSR 3 Quality aussieht. Auch wenn die Qualität nicht vergleichbar ist, müssen RDNA1-3 User so spielen, damit es spielbar ist.

Ja, das kann man natürlich machen.
Das kommt nur missverständlich rüber wenn du schreibst "nur 3% unterstützen DLSS". Gehe ich weiter zurück unterstützen die Spiele auch nur Direct X 9. Usw. Also nur 5% unterstützen Direct X12 von allen je erschienenen Spielen.^^
Ich seh das einfach so: ich hätte gern so viel Daten wie möglich bis zur Grenze dessen wo Wolfgang dann im Burn-Out landet. Mehr Daten, mehr Info, mehr Know-How.

Ich will so wenig wie möglich ausschliessen und so viel wie möglich einschliessen. Und wie gesagt: fordern tu ich nix, ich sag nur: wär schön und hilfreich weil weiterer Datenpunkt. Und um das zu untermauern hab ich halt gesagt es gibt weit mehr Games ohne DLSS als mit, ergo ist das auch nicht komplett invalide (auch wenn die meisten AAA Titel natürlich DLSS und Co beinhalten).
 
  • Gefällt mir
Reaktionen: Quidproquo77
Lars1111 schrieb:
Ich vermisse Vergleichsvideos bzw. Vergleichsbilder die mal die reine Upscalingqualität von DLSS 4.5 zwischen RTX20, RTX 30, RTX40 & RTX50 GPUs vergleichen, also z.B. RTX 2080 vs. RTX 3080 vs RTX 4080 vs RTX 5080, also Bild 4-geteilt mit dem jeweiligen gleichen Frame eines Benchmarks des selben Spiels, den man mit gleicher Grafik- & DLSS 4.5-Einstellung durchgeführt hat. Das wäre mal wirklich interessant, denn ich gehe stark davon aus, das die Bildqualität stark schwankt, mal vom Performanceverlust abgesehen. Bis jetzt habe ich das aber so noch nicht gefunden.
Das ist etwa so interessant wie einen Grundschüler, einen Gymnasiasten und einen Matheprofessor 5+5 rechnen zu lassen und die Ergebnisse zu vergleichen. :)

Okay bei höherer Framerate hat der Algorithmus mehr Infos und könnte potenziell auch bessere Resultate erzielen.. Aber die Unterschiede sollten wirklich minimal sein.
 
Zuletzt bearbeitet:
Lars1111 schrieb:
Ich vermisse Vergleichsvideos bzw. Vergleichsbilder die mal die reine Upscalingqualität von DLSS 4.5 zwischen RTX20, RTX 30, RTX40 & RTX50 GPUs vergleichen, also z.B. RTX 2080 vs. RTX 3080 vs RTX 4080 vs RTX 5080, also Bild 4-geteilt mit dem jeweiligen gleichen Frame eines Benchmarks des selben Spiels, den man mit gleicher Grafik- & DLSS 4.5-Einstellung durchgeführt hat. Das wäre mal wirklich interessant, denn ich gehe stark davon aus, das die Bildqualität stark schwankt, mal vom Performanceverlust abgesehen. Bis jetzt habe ich das aber so noch nicht gefunden.
Es braucht dazu nur zwei Karten und nicht alle vier. Zwischen 2000/3000 gibts keine Differenzen, beide nutzen das FP16 Modell, und 4/5000 nutzen das FP8-Modell. Theoretisch könnte 2/3000 damit optisch besser sein weil man genauer rechnen könnte. Die Frage ist halt obs sichtbar ist, dass auf RTX4/5000 in tieferer Genauigkeit gerechnet wird.

Und um ehrlich zu sein, tu ich mir selbst beim reinen Image-Upscaling (kein Bewegtbild) schon schwer teils zwischen FP4/8/16-Modellen zu unterscheiden (SeedVR2). Wie das dann in Bewegung aussehen soll und potentiell noch mit Zwischenbildern...ich denke real wirst du beim Zocken keine Differenzen sehen.

Mit der Lupe gesucht auf Screenshots könnte man aber durchaus was sehen. Nur wie realistisch ist dieser Use-Case ? :D
 
  • Gefällt mir
Reaktionen: Andre83hro

Ich frage mich das deshalb, weil hier in diesem Vergleichsvideo mit der RTX 2060 bereits beim ersten Spiel: Spiderman 2 bei 0:22 auf der rechten Seite (DLSS 4.5) die Gebäude im Hintergrund total verwaschen sind. Insgesamt wirkt DLSS 4.5 für mich im ganzen Video oft unschärfer und weniger detailiert im vergleich zu DLSS 4.0
 
Ich finde Nvidia hat das mit der Einführung der Presets ziemlich unübersichtlich gemacht. Wofür sind sie jetzt eigentlich da? Warum nicht einfach wie bisher die neueste Version des Upscalings nutzen und je nach Monitorauflösung eine geeignete Hochskalierungsstufe einstellen?
 
  • Gefällt mir
Reaktionen: derMutant, jiggi89 und Andre83hro
MaLow17 schrieb:
@ev4x
Z. B. ein SDK-Leak, wie bei AMD, bei dem man an den Source Code kommen konnte und sich selbst eine INT8-Version der DLL kompilieren könnte.

So einfach ist das nicht. Das Modell ist erstmal ein gelenkter Zufallsprozess und nichts, was einen klaren Quellcode hat um es direkt zu kompilieren. Da muss schon ein neues Modell generiert werden.

AMD hat das INT8 Modell ja selbst entwickelt (sei es nun nur zum Testen, für die PS5 Pro oder doch für RDNA3)
 
  • Gefällt mir
Reaktionen: MaLow17
MaLow17 schrieb:
FP8 ist langsamer und ungenauer als INT8.
Ist egal wenn die Hardware darauf optimiert ist, fp8 hat einen viel höheren Wertebereich als int8 und darauf kommt es an im Bereich ML
Ergänzung ()

ThirdLife schrieb:
Es braucht dazu nur zwei Karten und nicht alle vier. Zwischen 2000/3000 gibts keine Differenzen, beide nutzen das FP16 Modell, und 4/5000 nutzen das FP8-Modell. Theoretisch könnte 2/3000 damit optisch besser sein weil man genauer rechnen könnte. Die Frage ist halt obs sichtbar ist, dass auf RTX4/5000 in tieferer Genauigkeit gerechnet wird.

Und um ehrlich zu sein, tu ich mir selbst beim reinen Image-Upscaling (kein Bewegtbild) schon schwer teils zwischen FP4/8/16-Modellen zu unterscheiden (SeedVR2). Wie das dann in Bewegung aussehen soll und potentiell noch mit Zwischenbildern...ich denke real wirst du beim Zocken keine Differenzen sehen.

Mit der Lupe gesucht auf Screenshots könnte man aber durchaus was sehen. Nur wie realistisch ist dieser Use-Case ? :D
Nein nicht zu sehr von der Präzision irritieren lassen, es kommt da eher auf die Parameter an und da packt man bei der geringeren Präzision einfach mehr rein, es könnte daher eher sein das die fp8 Variante sogar schneller und schöner ist und weniger VRAM braucht zum ausführen. Selbst fp4 sollte da noch besser sein (RTX50 only) wenn man die Parameter weiter pusht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
NVidia hat ein großes Imageproblem:
man entwickelt vorzügliche Softwarefeatures, die dann aber mit der verkauften Hardware einfach nicht gut funktioniert, bzw. natürlich nur mit der neuesten und teuersten Version.
Es kann einfach nicht sein, dass man eigentlich imerm viel zu wenig Speicher auf den KArten verbaut, die dann aber dafür genutzt werden sollen, um angepasste Softwareioptimierungen zur Leistungssteiegrung nutzen zu müssen, weil dei KArten einfach zu lahmarschig dafür sind, und vor allem deswegen sogar viel mehr Speicher benötigen, der jedoch grundlegend mit voller Absicht eingespart worden ist.
Das ist ein großes Paradoxon, was den Leuten einfach nicht einleuchtet, udn sie kaufen den Käse dann auch noch.
Es kann und darf einfach nicht sein, dass diese Kxxx-Firma jetzt sogar die 16GB Varianten ganz einstellt oder reduziert, und dann nur noch die Rohrkrepierer Versionen mit 8GB ankurbeln will, um die Leute mal so richtig nach Strich und Faden auszunehmen und zu verarschen!
Die Karten funktionieren grundlegend nicht mit der Software und den Spielen, da ein Speicherüberlauf dafür sorgt, dass die Grafikengines agressiv Details weglassen müssen und Nachladeruckler und Ausfälle zu verzeichnen sind.
Also was nützt es mir, wenn so eine Technik wie DLSS und MFG entwickelt wird, um angeblich vor allem schwächeren Karten unter den Arm zu greifen, damit diese bei aktuellen Spielen noch in spielbare Bereiche kommen können, aber die Realität sieht dann in jedem 2ten Spiel tatsächlich ganz anders aus?
Da vor allem Nvidia sehr eng mit etlichen Softwareenticklern bei Spieleproduktionen zusammenarbeiti und optimiert, wissen die defintiv alleine deswegen udn auch aus langjähriger Erfahrung, was Karten mitbringen müssten, damit das Konzept aufgehen kann.
Die verkaufte Ware zeigt aber ein ganz anderes Bild.
Nämlich Einsparungen, die auf eine noch höhere Gewinnmarge bei der aktuellen Ware und den damit selbst herbeigeführten notwendigen Neukäufen in naher Zukunft ausgelegt sind.
Es war noch nie ein Problem, vernünftige Einsteigerkarten zu entwickelen udn zu produzieren, udn vor allem aber auch höherpreisige Karten entsprechend gut und somit ausreichend zu bestücken, es war immer nur die rigorose Firmenpolitik, die nicht einmal auf weltweite Kritik an deren System reagiert udn das Ding einfach weiter durchzieht, solange es die Kunden trotz Meckerei mitmacht. Man soll mit den Karten gar nicht zufrieden sein, wenn die bereits bei der Fertigung nicht mehr für das gedachte Szenario einsatzbereit sind.
Die Präsentationsfolien zeigend as System schon auf, indem diese völlig an der Realität vorbei aufgezogen sind udn von einem total unsinnigen Ausgangspunkt gesehen aufgezogen werden, um am Ende auf ein total tolles Ergebnis zu kommen, was dem potentiellen Kunden vorgaukelt, das es ein super sinnvolles Produkt ist udn der Kostenaufwand dafür mehr als gerechtfertigt ist.
 
@BxBender
Also spätestens mit ner 16 GB Karte hast du doch keine Probleme mehr, selbst 4K läuft damit sehr gut (mit Upscaling, Nativ kannste unabhängig vom Speicher eh vergessen). Selbst mit 12 GB kommt man in 1440p noch gut aus.

Ja Nvidia ist geizig, aber AMD ist da momentan auch nicht besser. Nvidia ist eben meist teurer, aber auch nicht ganz zu unrecht.

Weiteres Problem ist dass die Chipentwicklung zu stark stagniert und sich aktuelle Mittelklasse Hardware nicht so stark von Konsolen absetzen kann, wie das früher der Fall war. Dazu allgemein gestiegene Preise.

Führt eben dazu, dass man mittlerweile auch sein Budget stark erhöhen muss. Wer vor 10 oder 15 Jahren 300€ GPUs gekauft hat und das heute immernoch tut oder nun maximal 400-500€ ausgibt, der bekommt heutzutage Grafikkarten die deutlich schlechter mit den aktuellen Spielen zurechtkommen als damals. Das liegt aber nur daran, weil Konsolenhardware relativ zur verfügbaren PC Hardware momentan deutlich besser dasteht und somit die Anforderungen der Spiele (die ja auf Konsolen zugeschnitten werden) vergleichsweise hoch wirken.

Also nein, das ist kein alleiniges Nvidia Problem. Intel und AMD können es auch nicht besser. Oder wo ist die AMD Karte mit 32 GB VRAM für 700€ die 3-4x so schnell wie eine Konsole ist? Hätte sich seit 2015 nichts geändert, wäre das heutzutage eine realistische Erwartungshaltung. Aber die Zeiten haben sich leider geändert.

Also ja, die Preise sind ganz klar gestiegen, sehr deutlich sogar. Aber die Hersteller halten die Leistung auch nicht zurück, was man deutlich am Stromverbrauch sieht. Ne XX80 braucht deutlich über 300W, ne xx90 fast schon 600 Watt. Das zeigt eben ganz gut, dass da leider nicht so viel zu holen ist.

Wenn nvidia jetzt ne 5090 verkaufen würde die max 300W braucht und nen winzigen Chip nutzt, dann könnte man wirklich sagen, die verarschen uns nach strich und faden. Aber das ist ja nicht wirklich der Fall.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NguyenV3, ElliotAlderson und Vigilant
BxBender schrieb:
NVidia hat ein großes Imageproblem:
Bei wem? Doch hauptsächlich bei denen die keine haben.
BxBender schrieb:
man entwickelt vorzügliche Softwarefeatures, die dann aber mit der verkauften Hardware einfach nicht gut funktioniert, bzw. natürlich nur mit der neuesten und teuersten Version.
Bei der Midrangekarte von 2023 meiner Frau (RTX 4070Ti) funktioniert alles bestens.....

Bildschirmfoto_20251205_124208.pngCyberpunk2077_2023_10_30_07_04_43_158.png

.....könnte mir was schlimmereres vorstellen als mehr FPS bei weniger verbrauch
 
  • Gefällt mir
Reaktionen: rumpeLson
Warum wird M und L nur für Performance/Ultra Performance "empfohlen" ?

Würde bedeuten, die Modelle lohnen sich erst ab 4k + Auflösungen ?
 
BxBender schrieb:
NVidia hat ein großes Imageproblem:
Das sie kompensieren mit quasi 85-90% Marktanteil. Wo ist der Druck?

btw, es wird noch toller:

 
  • Gefällt mir
Reaktionen: ElliotAlderson
Was ich noch nicht wirklich raffe: wie verhalten sich diese Presets L (DLSS 4.5 Ultra Performance) und M (DLSS 4.5 Performance) mit den DLSS Qualitätsstufen im Spiel zusammen (Auto, Ultra Performance, Performance, Quality, Ultra Quality, Balanced)?!
 
Zurück
Oben