Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

Taxxor schrieb:
Du und jeder andere hier weiß genau, worum es geht: Dass eben mehr als die reinen HW Einheiten zur Performance einer GPU zählen.
Tut es das ? Die Performance meiner CPU wird ja nicht mehr. Es gehen nicht mehr TByte/s und TFLOPs durch meine Karte, nur weil ich DLSS aktiviere. Die Performance "der GPU" bleibt genau gleich.

Dass du am Ende mehr Bilder rauspresst liegt ja nicht an "mehr Leistung" sondern an "wir rechnen in einer tieferen Auflösung" und dass dieser Cheat akzeptabel bleibt liegt an "unser AI Modell rechnet die Bilder aber optisch ähnlich bzw. teils besser als nativ".

Es verlagert sich am Ende also der Test auf Dinge die komplett subjektiv sind, denn wer welchen Schärfegrad und welche fehlenden Details und welches Flimmern noch wo und wie akzeptabel findet ist auch reine Ansichtssache.

Was ich aber in einem Test zwingend erfahren will ist was kann "die GPU". Und nicht nur in Games und mit Hilfe jeder Technologie die irgendwie denkbar ist sondern auch ohne dies. Denn nur so ist ja echte Vergleichbarkeit von "nackter Performance" gegeben.

Dass am Ende je nachdem was du persönlich machst noch ganz andere Dinge (CUDA und TensorRT bei mir zB) zählen ist ein ganz anderes Gebiet eines Tests.

Ich bin daher ganz klar dafür beides zu erfahren und nicht nur einen Bruchteil dessen, was die Karte kann in einem ganz speziellen Umfeld und mit ganz spezifischen Techstacks on top. Ich hoffe es kommt dabei rüber, dass ich kein Hasser von DLSS & Co bin, im Gegenteil, ich finds sehr geil. Ich differenziere aber auch gerne zwischen Software und Hardware und werfe nicht alles wild zusammen.
 
ThirdLife schrieb:
Dass du am Ende mehr Bilder rauspresst liegt ja nicht an "mehr Leistung" sondern an "wir rechnen in einer tieferen Auflösung" und dass dieser Cheat akzeptabel bleibt liegt an "unser AI Modell rechnet die Bilder aber optisch ähnlich bzw. teils besser als nativ"
Was aber ja auch damit zusammenhängt, wie gut die hardwareeinheiten, auf denen der Algorithmus läuft, sind, damit haben wir selbst bei DLSS den Hardwarefaktor und „was kann die GPU“ mit drin
 
  • Gefällt mir
Reaktionen: ShiftC und ElliotAlderson
Taxxor schrieb:
Ich sehr häufig bei RDNA1
Ich hatte 2023 auch kurz zum Übergang eine 5700XT Nitro+ von Sapphire im Rechner. Da ist mir aufgefallen, dass die Adrenalin Einstellungen nach Neustart immer verschwunden waren. Aber im Grunde genommen war das eine ordentliche Karte.
 
  • Gefällt mir
Reaktionen: Andre83hro
Andymiral schrieb:
4.5 ist ja aktuell noch in der Beta phase, kann man davon ausgehen das es mit der finalen performance evtl. bessere performance abliefert?
Eher nicht, das wird wohl schon die finale Version sein, die sich in der technischen Betatestphase befindet und deswegen nur mit aktivierter Early Acess Option der NV APP nutzbar ist.
https://www.nvidia.com/en-us/geforce/news/dlss-4-5-geforce-game-ready-driver/

Je nach Auflösung kann man eben jetzt mit einer niedrigeren DLSS Stufe die selbe oder ähnliche Bildqualität erreichen. Damit bekommt man dann ja auch mehr FPS.
Am Ende muss man das selber testen.
A.Xander schrieb:
Im ganzen performen die niedrigen DLSS Stufen jetzt wesentlich besser.
 
ThirdLife schrieb:
Ich differenziere aber auch gerne zwischen Software und Hardware und werfe nicht alles wild zusammen.
Hardware ist aber ohne Software nichts und umgekehrt. Diese rohen, nativen Werte haben heute einfach keine Relevanz mehr.
 
  • Gefällt mir
Reaktionen: Snapuman und rumpeLson
Taxxor schrieb:
Was aber ja auch damit zusammenhängt, wie gut die hardwareeinheiten, auf denen der Algorithmus läuft, sind, damit haben wir selbst bei DLSS den Hardwarefaktor und „was kann die GPU“ mit drin
Ja, auf eine gewisse Weise absolut: DLSS hängt am Ende auch daran, wie gut die Hardwareeinheiten (Tensor, Optical Flow etc.) sind. Das ist aber auch genau der Punkt: DLSS misst dann eine andere Fähigkeit der GPU als "native Renderleistung". Beides ist valide - ich wills nur nicht vermischt haben.

ElliotAlderson schrieb:
Eben doch oder was glaubt du, warum der DLSS 4.5 Algo auf RTX 4000/5000 besser läuft als auf den anderen? Das ist alles nur Code, der von der GPU berechnet wird.
Klar läuft das alles als Code auf der GPU. Der einfache Gegenbeweis zur "mehr Leistung"-Lesart ist:

Wenn du bei gleicher interner Renderauflösung zusätzlich noch DLSS‑Rekonstruktion laufen lässt (zB DLAA als "Upscaler ohne Upscaling"), dann wirds langsamer, nicht schneller.

Das zeigt: DLSS ist nicht Magie, sondern zusätzlicher Rechenaufwand. Der Netto‑FPS‑Gewinn entsteht, weil man vorher massiv Raster/RT‑Arbeit einspart (weniger Pixel), und der DLSS‑Overhead kleiner ist als die eingesparte Arbeit. Dass neuere RTX‑Generationen das besser/effizienter können, passt da voll rein aber:

Spezifisch auf RTX4000/5000 bezogen arbeiten diese schlichtweg in einer niedrigeren Quantifizierung (FP8). Das ist vergleichbar zu tieferer Auflösung. Nicht "mehr Leistung". Die "Mehrleistung" kommt von weniger Rechenaufwand, nicht daher, dass die Karte mehr rohe Leistung hat.

TheInvisible schrieb:
Hardware ist aber ohne Software nichts und umgekehrt. Diese rohen, nativen Werte haben heute einfach keine Relevanz mehr.
Stimme ich grundsätzlich zu (Hardware ohne Software bringt nichts). Aber daraus folgt nicht, dass native Werte "irrelevant" sind. Sie sind weiterhin wichtig für:

  • Vergleichbarkeit (DLSS ist vendor- und versionsgebunden, Integration je Spiel unterschiedlich)
  • Spiele/Mods ohne DLSS oder mit anderem Upscaler
  • Bildqualität/Latency‑Tradeoffs (FG erhöht Output‑FPS, aber nicht die Input‑Rate, das ist ein anderer "Performance"-Begriff)

Langfristige Einordnung ist demnach: "Was kann die Karte nativ?" bleibt die Basislinie.

Mein Wunsch an Tests ist deshalb simpel, ich will euch ja nix nehmen, eher wollt ihr mir Infos nehmen:

Native Benchmarks als Baseline (nackte Raster/RT Performance)
Zusätzlich DLSS/FSR/XeSS + ggf. Frame Gen als eigene Kategorie (mit klarer Angabe von Mode, interner Renderauflösung, und idealerweise auch Latenz).

Dann hat man beides: objektive Basis + praxisnahe Tech‑Stacks.
 
  • Gefällt mir
Reaktionen: Snapuman, Andre83hro und ShiftC
Das ist echt heftig. TheOutlastTrials.

Habe per Treiber das Preset M gewählt und Quality im Game genutzt bei 120FPS.

Sieht echt sehr gut aus.

Nun habe ich im Game mal Ultraperformance ausgewählt und ich sehe kaum einen grafischen Unterschied (WQHD) aber der Verbrauch ging von 120 Watt runter auf ca. 80 Watt.

Nicht übel
 
  • Gefällt mir
Reaktionen: Snapuman
ThirdLife schrieb:
Die "Mehrleistung" kommt von weniger Rechenaufwand, nicht daher, dass die Karte mehr rohe Leistung hat.
Eben doch. Auf den RTX 2000/3000 lohnt sich das neue DLSS Preset in Quality nicht, weil es so viel Leistung kostet. Bei den neueren Generationen hingegen schon, weil sie mehr Rohleistung für die DLSS Berechnung haben. DLSS Berechnungen gehören zur Rohleistung dazu.
 
  • Gefällt mir
Reaktionen: ShiftC
@ElliotAlderson @ThirdLife Ihr erweckt in eurer Diskussion den Eindruck, als würdet ihr nicht die gleiche Sichtweise haben, dabei habt ihr diese aber. @ThirdLife verlangt lediglich, dass man zum Vergleichen den Kompromiss eingehen sollte, zusätzlich in nativ zu testen (zähle mich zu diesem Team). Das erfordert wesentlich mehr Testaufwand. Der andere Kompromiss wäre, nur jene HW/SW-Kombinationen zu vergleichen, die ähnliche Bildqualität abliefern, wodurch einige Modelle oder Generationen vom Vergleich ausgeschlossen bzw. nur Insel-Vergleiche zulassen würden.
 
  • Gefällt mir
Reaktionen: Andre83hro, Melmoth und ThirdLife
ElliotAlderson schrieb:
Eben doch. Auf den RTX 2000/3000 lohnt sich das neue DLSS Preset in Quality nicht, weil es so viel Leistung kostet. Bei den neueren Generationen hingegen schon, weil sie mehr Rohleistung für die DLSS Berechnung haben. DLSS Berechnungen gehören zur Rohleistung dazu.
Es liegt eben nicht an der "Rohleistung" sondern fehlendem FP8-Compute. Und das ist nicht "mehr Rohleistung" sondern niedrigere Präzision. Klar, kann man das als RTX4000 hat "mehr Leistung" verkaufen, genau wie man es bei DLSS auch macht. Ist faktisch aber nicht ganz korrekt bzw. schlichtweg eine falsche Aussage.

Und darum sind mir eben detaillierte Tests so wichtig. Auch wenns für die meisten Normaluser auf das was du sagst runterbricht: RTX4/5000 ist schneller - unterm Strich. Ich weiss jetzt halt einfach gern woran das liegt und will nicht nur einen Balken sehen der lang ist und eine Redaktion die sagt "joa Bild sieht gut aus" sondern begründet wer, wie, was, warum.
 
ThirdLife schrieb:
Es liegt eben nicht an der "Rohleistung" sondern fehlendem FP8-Compute. Und das ist nicht "mehr Rohleistung" sondern niedrigere Präzision.
Achso. Sind Shader Rohleistung? Oder nur der reine Takt der GPU? Was ist mit RT Cores?
Die Rohleistung einer Karte ist das, was die Karte im Stande ist zu leisten und zu dieser Leistung gehören viele verschiedene Faktoren (u.a. die FP8 Leistung).
Du drehst dir das nur zu recht, aber stimmig ist das ganze nicht.
Ergänzung ()

ShiftC schrieb:
@ThirdLife verlangt lediglich, dass man zum Vergleichen den Kompromiss eingehen sollte, zusätzlich in nativ zu testen (zähle mich zu diesem Team).
Das wissen wir und haben einige von euch schon etliche male gesagt, aber warum ihr das wollt bzw. warum das Sinn ergibt, konnte keiner von euch erklären.
Ihr wollt die Rohleistung der Karte sehen? Dann guckt auf die FLOPS.
 
  • Gefällt mir
Reaktionen: Snapuman
ElliotAlderson schrieb:
Das wissen wir und haben einige von euch schon etliche male gesagt, aber warum ihr das wollt bzw. warum das Sinn ergibt, konnte keiner von euch erklären.
Ihr wollt die Rohleistung der Karte sehen? Dann guckt auf die FLOPS.
Ich habe das mehrmals erklärt, warum das "Sinn" ergibt und was sonst der Preis dafür ist, den man bezahlt, wenn man keine Kompromisse eingeht.

ShiftC schrieb:
Die andere Seite der Medaille ist, dass man zwischen den Herstellern dann kaum Vergleiche zieht. Nicht nur das; auch bei demselben Hersteller wären Vergleiche teils nicht mehr möglich. Das kann also auch nicht die Lösung sein. Man muss sich in der Mitte treffen, es geht halt nicht anders

Die Mitte wäre dann entweder, dass man die unterschiedlichen Bildqualitäten dann doch vernachlässigt um so verschiedene GPUs miteinander zu vergleichen oder dass man den Testaufwand erhöht und immer einen "@nativ" Benchmark draufpackt. Beides sind Kompromisslösungen.

Ohne Kompromisse müsste es, wenn man beim Thema konsequent bleibt, nur noch isolierte Tests für RTX, RDNA3, RDNA2 usw. geben, zumindest so lange, bis die Lösungen der jeweiligen Hersteller qualitätsmäßig nahezu gleiche Ergebnisse liefern.
 
  • Gefällt mir
Reaktionen: Andre83hro
Möchte jetzt nicht so viele Beiträge zitieren, deshalb ein wenig allgemein:

Mir geht es ja nicht darum hier Hersteller A gegenüber Hersteller B zu übervorteilen. Auch Nativ wird sich hier die Reihenfolge außer in speziellen Szenarios nicht ändern.

Auch möchte ich keinesfalls das Ergebnisse mit DLSS, MFG, und Co weggelassen werden.

Für mich (und das muss ja für niemanden anderen zwingend gelten) wäre es super wenn man sich auf die native Leistung stützt und DLSS, MFG und co eben als das behandelt was es ist. Sehr coole und sinnvolle Zusatzfeatures, aber eben genau das bis keine Vergleichbarkeit zwischen den verschiedenen Herstellern gewährleistet werden kann.

Denn wie hier schon angemerkt wurde, viele lesen nur Balken. Und ich sehe das Problem nicht dabei nativ als Grundlage zu nehmen.

Ich befürchte ich schaffe es leider nicht meinen Standpunkt zu verdeutlichen, aber das ist ja auch nur meine persönliche Meinung und hat keinerlei Anspruch auf Allgemeingültigkeit.

Zumal ich mich ein wenig in MFG verrannt habe. (In meinem Kopf sind diese Features halt alle AI, auch wenn das sicherlich nicht absolut korrekt ist.)
 
  • Gefällt mir
Reaktionen: ThirdLife
mit AI hat das glaub nicht viel zu tun. ist einfach eine zwischenbildberechnung.

und ja ich finde auch das ein test immer als basis den rohtest also ohne DLSS und FG/MFG als ausgangspunkt beinhalten sollte und DLSS und FG/MFG als Zusatz kommt.

Der Aufwand ist natürlich gigantisch aber gut, nicht mein Bier
 
  • Gefällt mir
Reaktionen: unspektakulaer
ShiftC schrieb:
Ich habe das mehrmals erklärt, warum das "Sinn" ergibt und was sonst der Preis dafür ist, den man bezahlt, wenn man keine Kompromisse eingeht.
Dann schau ich mir das mal an...

ShiftC schrieb:
Die andere Seite der Medaille ist, dass man zwischen den Herstellern dann kaum Vergleiche zieht. Nicht nur das; auch bei demselben Hersteller wären Vergleiche teils nicht mehr möglich. Das kann also auch nicht die Lösung sein. Man muss sich in der Mitte treffen, es geht halt nicht anders
Wieso kann man die nicht vergleichen? Gerade deshalb kann man sie vergleichen. Bencht man nativ, kannst du sie eben nicht mehr vergleichen. Hier mal ein rein fiktives Beispiel:
Du stehst zwischen der 7900 XT und der 5070. Jetzt ist die 7900 XT im Spiel deiner Wahl 45 FPS in WQHD schnell und die 5070 nur 40 FPS. Schaltest du jetzt aber DLSS an, sinds auf einmal 70 FPS. FSR3 ist hier aber keine Wahl für dich, weil Bildquali scheiße. Wenn man also nur nativ bencht, würdest du dich letzten Endes für die falsche Karte entscheiden. Die native Leistung ist also völlig irrelevant fürs Gaming.
Was bringt es dir denn an diesem Punkt zu wissen, dass die 7900 XT nativ 5 FPS mehr liefert, wenn du nativ eh nicht spielst? Da hast du absolut nichts von.
Da entscheide ich mich doch für die Karte, die mir mehr Leistung und das bessere Bild liefert, was du beim nativen Test aber nicht siehst. Auch du kannst es hier nicht sinnhaft belegen.

ShiftC schrieb:
Ohne Kompromisse müsste es, wenn man beim Thema konsequent bleibt, nur noch isolierte Tests für RTX, RDNA3, RDNA2 usw. geben, zumindest so lange, bis die Lösungen der jeweiligen Hersteller qualitätsmäßig nahezu gleiche Ergebnisse liefern.
Damit kannst du dann erst recht nichts vergleichen. Die Basis ist die Bildqualität und die sollte gleich und möglichst hoch sein.

KeebYourMouth schrieb:
und ja ich finde auch das ein test immer als basis den rohtest also ohne DLSS und FG/MFG als ausgangspunkt beinhalten sollte und DLSS und FG/MFG als Zusatz kommt.
Und was bringt dir das? Das kann hier niemand von euch logisch beantworten. Native Tests ergeben nur für Nativewarrior Sinn, die partout diese Technik nicht nutzen wollen, auch wenn es Schwachsinn ist.
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Stimme ich grundsätzlich zu (Hardware ohne Software bringt nichts). Aber daraus folgt nicht, dass native Werte "irrelevant" sind. Sie sind weiterhin wichtig für:

  • Vergleichbarkeit (DLSS ist vendor- und versionsgebunden, Integration je Spiel unterschiedlich)
  • Spiele/Mods ohne DLSS oder mit anderem Upscaler
  • Bildqualität/Latency‑Tradeoffs (FG erhöht Output‑FPS, aber nicht die Input‑Rate, das ist ein anderer "Performance"-Begriff)


Punkt 1: Ja DLSS ist vendor gebunden, dadurch sind aber eben die Karten im Gaming stärker als andere, und das ist doch was ich in den Balken für die FPS in Spielen sehen will.
Die Karte absichtlich in einem schlechteren Szenario (z.B. alle Karten mit TAA) zu benchen gibt dir zwar ne schöne Vergleichbarkeit für den Benchmark, aber hat dann nichts mit der späteren Praxis zu tun, also ein Vergleich, der niemandem nützt.

Punkt 2: Ist doch nicht relevant, Spiele die kein Upscaling haben werden dann logischerweise ohne Upscaling getestet, alle anderen mit. Damit hättest du später in einem Ranking mit 20 Spielen halt auch mal eines ohne Upscaling drin und das bildet dann auch die relative Verteilung an, zumindest innerhalb der Spiele die Performance benötigen

Punkt 3: Um FG gehts hier ja nicht, also bei diesem Thema nicht relevant.
 
  • Gefällt mir
Reaktionen: Snapuman
ElliotAlderson schrieb:
Dann schau ich mir das mal an...


Wieso kann man die nicht vergleichen? Gerade deshalb kann man sie vergleichen. Bencht man nativ, kannst du sie eben nicht mehr vergleichen. Hier mal ein rein fiktives Beispiel:
Du stehst zwischen der 7900 XT und der 5070. Jetzt ist die 7900 XT im Spiel deiner Wahl 45 FPS in WQHD schnell und die 5070 nur 40 FPS. Schaltest du jetzt aber DLSS an, sinds auf einmal 70 FPS. FSR3 ist hier aber keine Wahl für dich, weil Bildquali scheiße. Wenn man also nur nativ bencht, würdest du dich letzten Endes für die falsche Karte entscheiden. Die native Leistung ist also völlig irrelevant fürs Gaming.
Was bringt es dir denn an diesem Punkt zu wissen, dass die 7900 XT nativ 5 FPS mehr liefert, wenn du nativ eh nicht spielst? Da hast du absolut nichts von.
Da entscheide ich mich doch für die Karte, die mir mehr Leistung und das bessere Bild liefert, was du beim nativen Test aber nicht siehst. Auch du kannst es hier nicht sinnhaft belegen.


Damit kannst du dann erst recht nichts vergleichen. Die Basis ist die Bildqualität und die sollte gleich und möglichst hoch sein.


Und was bringt dir das? Das kann hier niemand von euch logisch beantworten. Native Tests ergeben nur für Nativewarrior Sinn, die partout diese Technik nicht nutzen wollen, auch wenn es Schwachsinn ist.
Da kann ich nur den Kopfschütteln. Spiele in WQHD mit FSR3 und die Bildqualität schaue ich mir da nicht mit der Lupe an. Weil das Spiel viel zu schnell ist. Trotzdem ist die Qualität voll in Ordnung. Zudem ist mir die Native Leistung auch wichtig in den vergleichen weil ich nicht immer auf diese Fake Sache stehe und aus der Generation komme wo es nur Nativ gab. Stelle es nur an bei Multiplayer Spielen. Bei Singleplayer Spiele spiele ich nur Nativ weil 75 FPS Dicke ausreichen in WQHD.
 
Andre83hro schrieb:
Bei Singleplayer Spiele spiele ich nur Nativ weil 75 FPS Dicke ausreichen in WQHD.
Bei FSR3 würde ich das auch so handhaben, weils halt auch meist sichtbar schlechter aussieht, hättest du die Möglichkeit für FSR4 sähe das aber schon anders aus, dann würdest du mit Nativ sogar Bildqualität verschenken und es würde gar keinen Sinn ergeben, nativ zu spielen.

Ich spiele jetzt mit Version 4.5 immer mit DLSS Performance, auch wenn ich nativ genug FPS hätte
 
Zurück
Oben