Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Benchmarks mit RTX 5000, RTX 3000, RX 9000 und RX 6000

Heißt also an sich kann man sich die Einstellerei im Treiber eig sparen bei 4.5 und einfach, wie ich zuvor getan habe, im Spiel entsprechend zusammen mit Quality einstellen.
 
Ich glaube, in späteren Benchmarks wird es irgendwie schwer sein, wirklich die Rohleistung einer Karte zu definieren...denn das wäre doch eigentlich ausschließlich Nativ/Raster oder nicht?
Wie soll man da sonst zukünftig vergleichen....es gibt einfach zu viele "Möglichkeiten".
Kehren wir dann doch irgendwie wieder zu den Ursprüngen zurück...
 
Danke für den Test!
Auch wenn ich mich schon gefreut hatte dass die 6950XT auch mit FSR 4 getestet wird...
 
  • Gefällt mir
Reaktionen: SweetOhm
Mimir schrieb:
Was ist das denn für ne Schlussfolgerung??

DLSS4.5 kostet mehr performance, also sinken sowohl die AVG FPS als auch die Percentil FPS.
Wie soll das denn anders möglich sein?

Was soll daran falsch sein? Hat sich lt dir bei den Treibern also nichts getan? Von -6% zu +10% in nativ heißt bei mir halt was anderes...
DLSS4.5 ist halt nicht immer besser ist als FSR AI, wenn ich mit der 9070XT noch 60 min FPS habe und mit der 5070TI nur noch 49.
 
  • Gefällt mir
Reaktionen: J-Ryan, BacShea, Simzone4 und 6 andere
Jagdwurst schrieb:
Ich glaube, in späteren Benchmarks wird es irgendwie schwer sein, wirklich die Rohleistung einer Karte zu definieren...denn das wäre doch eigentlich ausschließlich Nativ/Raster oder nicht?
Wie soll man da sonst zukünftig vergleichen....es gibt einfach zu viele "Möglichkeiten".
Kehren wir dann doch irgendwie wieder zu den Ursprüngen zurück...

Das Problem wird mit Pathtracing und RayReconstruction oder auch dann mit Neural Rendering künftig wahrscheinlich nur noch größer.

Denn RayReconstruction beeinflusst nicht nur die Bildqualität oder das Denoising sondern auch zu sehr großem Anteil die tatsächliche Qualität der Beleuchtung. In manchen Spielen fehlen ohne RayReconstruction einfach mal komplette Schatten oder Highlights. Die werden vom Standarddenoiser einfach vollständig ausradiert, da das Signal zu schwach ist. Mit RR sind sie dann aber sehr deutlich zu sehen.

Praktisch ist es auch völlig egal, wie viel Rechenleistung man in RayReconstruction stecken wird, denn es wird immer günstiger und vielfach effizienter sein, als viel mehr Rays und Bounces zu erzeugen.

Je stärker die Bild und Grafikqualität von Herstellereigenen Algorithmen getrieben ist, desto schwieriger wird die Vergleichbarkeit. Das Problem wird also in Zukunft noch sehr viel komplexer.


vll schrieb:
DLSS4.5 ist halt nicht immer besser ist als FSR AI, wenn ich mit der 9070XT noch 60 min FPS habe und mit der 5070TI nur noch 49.

Das Problem hast du ja auch auf der Nvidia Karte selbst, wenn du zwischen DLSS4 und DLSS4.5 wechselst. Die performance sinkt nunmal, so auch die Min FPS. Die hängen nunmal fest zusammen.

DLSS4.5 sieht im Performance Modus halt stellenweise sehr viel hochauflösender aus, als DLSS4 oder FSR4.
Wenn du vorher DLSS4.0 Quality genutzt hast, weil dir nur im Quality Modus das Bild scharf genug war, dann kannst du jetzt häufig DLSS4.5 im Performance Modus nutzen und bekommst meist sogar ein klareres Bild.
Ist es in allen Aspekten immer besser? Nein, sicher nicht. Es wird hier und da Probleme geben, bei denen der Quality Modus auch mit älterer Version besser arbeitet. Aber wie ich vorhin schon gesagt habe, entscheidend ist eher der Look des gesamten Bildes. Fakt ist halt auch, dass DLSS4.5 im Quality Modus praktisch die selben Fehler macht wie im Performance Modus, aber der Abfall an Bildschärfe/Qualität zwischen Quality und Performance Modus mittlerweile verschwindend gering ist, während er bei DLSS4.0 oder FSR4 noch recht deutlich sichtbar ist und bei DLSS3 extrem deutlich war.

Nvidia Empfiehlt DLSS4.5 für den Performance Modus. Aber allgemein müsste man wohl eher sagen: Nvidia Empfiehlt DLSS4.5 IM performance Modus.

Das sinnvollste, vor allem in 4K ist eben mittlerweile zu sagen: Schau dir das Bild in 4K Mit DLSS 4.5 performance an und bewerte das. Meist wird man wohl zu dem Ergebnis kommen, dass das insgesamt besser aussieht, oder der bessere Trade-off ist als DLSS4.0 im Quality Modus. Und folglich hast du dann auch mehr performance als mit DLSS4.0 oder FSR4 trotz teurerem Algorithmus.

Das Problem ist dass du nicht mehr 1:1 vergleichen kannst. Die Bildeigenschaften sind zu unterschiedlich. Die Skalierung der Bildqualität zwischen den verschiedenen Qualitätsmodi ist ebenfalls total unterschiedlich. Also wie will man das sinnvoll bewerten? Das ganze in Tabellen zu pressen und irgendwelche Schlüsse zu ziehen wird zunehmend komplexer oder praktisch immer unsinniger. Wo es bei DLSS3 und in sehr geringerem Maße DLSS4 noch viel geholfen hat, die Inputauflösung (also die Qualitätsstufe) zu erhöhen, weil sie maßgeblich die Bildschärfe definiert hat, ist es bei DLSS4.5 praktisch irrelevant.

DLSS4.5 sieht im Quality und Performance Modus praktisch gleich scharf aus und es macht auch die gleichen Fehler. Die höherer Auflösung reduziert nur noch die Fehler die der Algorithmus macht minimal, aber es hat bei weitem nicht mehr den Nutzen, wie früher, wo man praktisch im "Blindtest" sehen konnte, ob der Quality oder der Performance Modus aktiv ist, einfach weil die Bildschärfe sehr unterschiedlich war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fika, feris, Pro_Bro und 2 andere
Verstehe...
Aber wenn einzelne Schatten oder Highlights etc. standardmäßig fehlen, frag ich mich, wie Spiele-Entwickler programmieren? Haben die andere Technik, dass die diese sehen und Gamer ohne diesen Krimskrams nicht? Verstehst was ich meine?
 
Puh, also 10 % bei der 5070 finde ich immer noch zu viel.
 
  • Gefällt mir
Reaktionen: Tenserien
Mimir schrieb:
Das Problem wird mit Pathtracing und RayReconstruction oder auch dann mit Neural Rendering künftig wahrscheinlich nur noch größer.

Je stärker die Bild und Grafikqualität von Herstellereigenen Algorithmen getrieben ist, desto schieriger wird die Vergleichbarkeit. Das Problem wird also in Zukunft noch sehr viel komplexer.
Das ist aber ein Irrweg, das muss einfacher werden und nicht komplexer für den normalen Nutzer. Letztlich müssen sich Nv und AMD was einfallen lassen. Ansonsten landen wir wieder im Optimierungszwang um überhaupt ein halbwegs annehmbares Bild zu erzeugen. Das treibt die Leute wieder auf die Konsolen.
 
Jagdwurst schrieb:
Aber wenn einzelne Schatten oder Highlights etc. standardmäßig fehlen, frag ich mich, wie Spiele-Entwickler programmieren? Haben die andere Technik, dass die diese sehen und Gamer ohne diesen Krimskrams nicht?
Die User sehen die zusätzlichen Schatten ja nur wenn sie Ray Reconstruciton im Spiel aktivieren, das nutzen ja dann auch die Entwickler beim Programmieren.
Und genau wie bei niedrigeren Schattensettings teilweise Schatten verschwinden, verschwinden sie halt auch ohne Ray Reconstruction.
 
  • Gefällt mir
Reaktionen: Jagdwurst
Schön wäre noch gewesen, hardware-unabhängige Alternativen wie Lossless Scaling mitzuvergleichen.

Nachtrag: Die Upscalingmethoden sind tatsächlich nicht direkt vergleichbar, da LS nur in Einzelbildern arbeitet (spatial) und nicht über eine Bildfolge (temporal) - Danke für den Hinweis, @Mimir! Doch auch, wenn FSR4/DLSS4+ deutlich bessere Qualität bieten, wäre es für die Vergleichbarkeit schön.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
@NDschambar
Lossless Scaling bietet keinen vergleichbaren Upscaler. Das sind alles nur spatiale Schärfefilter a la FSR1.
 
  • Gefällt mir
Reaktionen: NDschambar
Ich bleib dabei, Upscaling auf 4k ist nützlich, sieht gut aus!

Im 1080p Bereich ist es ein Zeichen für sparen am falschen Ende, falscher Planung, oder Inkompetenz!

Wenn man jetzt diese youtube Videos vorgeschlagen bekommt, wo Youtuber über die im Vergeich zu Nativ inzwischen "bessere" Bildqualität sabbern, ohne nachzudenken - da ein solches Resultat nur möglich ist, wenn man nativ vorsätzlich "hässlich" macht, oder jegliche Grafikompetenz vermissen läßt.

Das soll dann eine "tolle Entwicklung" sein?

DLSS steht für "Devs Liefern Schlampigen Support" und anstelle die Bildqualität zu verbessern, wird sie nur "repariert" und es gibt ein "race to the bottom" wie wenig Mühe man sich geben kann und der noch Kunde willens ist sich das mit DLSS schönzupolieren bei gerne auch einhergehenden Preiserhöhungen!


Was für eine tolle Industrie!
 
  • Gefällt mir
Reaktionen: MiroPoch, Return2Burn, Jagdwurst und eine weitere Person
Danke für die ausführlichen Tests. 4.5 ist die erste DLSS Iteration die im Quality Preset bei 4k Auflösung für mich keine Wahrnehmbares Flackern erzeugt. Das im BF6 Overkill Preset die vollen 165 Hz des Monitors gerendert werden find ich schon genial. Nur die Terrain Tessellation hab ich um eins zurück gedreht weil der 245kf dafür vermutlich zu schwach ist.
 
Und was ist mit der 9070 OC 16 GB? Die schlägt in vielem eine 5070 und ist ca 7 - 15 % langsamer als eine 9070 XT, da es die 9070 OC immer noch für ca 550 gibt ist das eine top Karte.

Auch eine 9060 XT 16 GB kann in vielem mithalten und andere Nvidia Karten locker schlagen.
 
  • Gefällt mir
Reaktionen: J-Ryan und SweetOhm
Mimir schrieb:
Je stärker die Bild und Grafikqualität von Herstellereigenen Algorithmen getrieben ist, desto schwieriger wird die Vergleichbarkeit. Das Problem wird also in Zukunft noch sehr viel komplexer.
Und je komplexer die Faktenlage, desto größer wird der Wunsch nach einfachen Antworten. Noch mehr Gewichtung also für Marketing ("wir gut!") und Ideologie ("die doof!"). Zum Glück ist das bei den wirklich wichtigen Dingen im Leben nicht so ...oh wait!
 
  • Gefällt mir
Reaktionen: olEn, Lamaan und Andre83hro
Der Sprung von nativ zu DLSS 4.5 Quality liegt bei nur 20%. Da bringt FSR4 Quality schon deutlich mehr Auf der anderen Seite hat man bei FSR4 vereinzelte Aussetzer, wo die Texturen richtig matschig aussehen. Da bringt mir mehr Leistung dann auch nichts.
 
Oh wowza, was für ein Beitrag.

Ich hätte nicht gedacht, dass DLSS 4.5 vs 4 vs. 3 teils so viel Leistung innerhalb desselben Settings verliert.

Dabei sieht DLSS 3 doch in den meisten Spielen schon hervorragend aus, ab WQHD meiner Meinung nach auch schon mit "Performance"-Preset und mit UHD sowieso.

Ich sehe aber teilweise auch (bewusst) den Unterschied nicht bzw. verzichte auch weiterhin gern auf das letzte Quäntchen Bildschärfe, wenn ich dafür stabil mit einer in meinem Fall dreistelligen FPS und Hz-VSync-Kombination spielen kann.
 
vll schrieb:
+23% in FSR AI Quality zu DLSS 4.5 Quality, das ist ja fast schon eine höhere Leistungsklasse.
Das ist aber eben auch eine ganz andere Bildqualität. DLSS 4.5 Performance wird wohl etwa zu FSR AI Quality passen.
Die Unterschiede konnte man sich im vorangegangenen Artikel selbst anschauen, da sieht man warum FSR AI so viel schneller ist.
PS. HUB bestätigt das auch, DLSS 4.5 Performance passt meist etwa zu FSR4 Quality.
 
Zuletzt bearbeitet:
DJMadMax schrieb:
Dabei sieht DLSS 3 doch in den meisten Spielen schon hervorragend aus, ab WQHD meiner Meinung nach auch schon mit "Performance"-Preset und mit UHD sowieso.
Wenn du da kaum einen Unterschied siehst, kann man bei DLSS4.5 noch mehr Stufen runter gehen. Vielleicht Ultra Performence+ mit 360p?
 
Zurück
Oben