Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Boimler schrieb:
Da ist nichts unscharf... "Erfinden" bedeutet wortwörtlich, etwas zu schaffen, was vorher noch nicht da war. An so einem Prozess beteiligen sich weder DLSS noch FSR. Das Bild, was angezeigt wird, ist eine Kombination aus Bildinformationen, die vorher schon da waren. Sowas ähnliches gibt's in der Bildbearbeitung schon seit Jahrzehnten, nennt sich "Stacking" und funktioniert komplett ohne KI. Man bekommt ein detaillierteres Bild durch die Addition von Einzelbildern. KI hebt das nur auf das nächste Level, indem nicht mit dem Bild selbst, sondern den Informationen, die zur Erstellung des Bildes führen, gearbeitet wird.
Ohne die Erschaffung von Neuem, ist Rekonstruktion mit unvollständigen Informationen über das Original nicht möglich. Das gilt in der realen Welt genauso, wie in der digitalen. DLSS rekonstruiert Bilddetails, wo Informationen fehlen. Ergo: DLSS erschafft Details, die vorher noch nicht da waren (aber sein sollten).

Wenn DLSS nur Engine Metadaten bräuchte, wäre der Deep Learning Teil überflüssig. Nvidia nutzt den Begriff "Rekonstruktion" sicher nicht zufällig.

Stacking rekonstruiert nicht, sondern addiert. Du kannst noch so viele Fotos stacken, wenn überlagernd in allen Fotos spezifische Details fehlen, fehlen die auch im Resultat.
 
R4nd0 schrieb:
Das Problem ist, wenn alle denken temporal upscaler seien sowieso besser als natives Rendering, weshalb sollte sich noch jemand Mühe machen, wenn die Graka Hersteller "die Probleme" fixen? Das ist ein äusserst schlechter Trend in meinen Augen.
Es ist kein "Trend", es ist schlichtweg der Tatsache geschuldet, dass sich in der Chipentwicklung immer langsamer, und in naher Zukunft gar nichts mehr tun wird. Auch wenn DLSS ebenfalls etwas Rechenzeit kostet, bedeutet der Sprung von 1080p auf 2160p nun mal die vierfache Pixelanzahl, glaubst du wirklich in absehbaren Zeit bezahlbare GPUs zu Gesicht zu bekommen, die mal eben viermal so schnell sind wie aktuelle Karten?

Nur zur Erinnerung, in den letzten 10 Jahren konnte die Leistungsfähigkeit knapp verdreifacht werden und die Entwicklung wird immer langsamer.
1769820818401.png

https://www.computerbase.de/artikel...force-gtx-1070-rtx-2070-3070-4070-test.86547/

Dabei brauche ich glaube ich nicht zu erwähnen, dass dabei der Preis gestiegen ist und der Energiebedarf sich verdoppelte, mit der "Brechstange" wäre die Entwicklung beim Gaming praktisch am Ende. Selbst wenn du die Grafikqualität auf dem jetzigen Niveau einfrieren würdest, an flüssige 4K Grafik mit aktivierten PT, brauchst du ohne DLSS und FG in den nächsten 10 Jahren gar nicht zu denken.
1769821859780.png

https://www.computerbase.de/artikel...e-kreis-full-raytracing-benchmark-test.90638/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn, ElliotAlderson, lmfaktor und eine weitere Person
xexex schrieb:
Nur zur Erinnerung, in den letzten 10 Jahren konnte die Leistungsfähigkeit knapp verdreifacht werden...
Das ist falsch. Die GPU Leistung hat sich im Highend Bereich zwischen Release der 1080 ti und dem Release der 5090 verfünffacht. Das waren nur acht Jahre. Eigentlich müsste man im Zehnjahresvergleich die 5090 gegen die 980 ti benchen. Da kommt man noch auf ganz andere Werte.
1769821904733.png

https://www.pcgameshardware.de/Graf...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/

Dein 1070 vs 4070 Vergleich deckt nur sieben Jahre ab und belegt schlicht, dass der Highend Bereich sich immer weiter von der Mittelklasse entfernt hat, während die Leistung in der Einstiegsklasse quasi stagniert.

xexex schrieb:
... und die Entwicklung wird immer langsamer.
Das scheint allerdings zutreffend zu sein
 
  • Gefällt mir
Reaktionen: ev4x, gartenriese und Rickmer
Da 4K-Grafikkarten auf langer Sicht unbezahlbar bleiben und auch nicht die Spieleauflösung der Massen ist, würde ich solch Vergleiche in 1440p begrüßen. Gerne auch mit schwächeren Grafikkarten (in meinem Fall die RTX3090^^).
 
  • Gefällt mir
Reaktionen: Pro_Bro
Lexor-tm schrieb:
Die GPU Leistung hat sich im Highend Bereich zwischen Release der 1080 ti und dem Release der 5090 verfünffacht.
Nimmst du High-End als Maßstab, hat sich aber der Preis ungefähr vervierfacht. Also hältst du statt auf technische Lösungen zu setzen, GPUs für 20k in ein paar Jahren für tragbar?

Das ist für mich keine Entwicklung, mehr Rechenleistung zu unsinnigen Preisen hast du zu der 1080Ti Ära mit SLI ebenfalls kriegen können. Nur war das genauso wie jetzt eine 5090, nichts was sich für die breite Masse eignet, und niemand entwickelt Spiele einzig für ein elitäres Publikum.
 
  • Gefällt mir
Reaktionen: lmfaktor
Dass wir langsam an ein dead end kommen sieht man ja an den Konsolen, die im laufe der Jahre immer teurer wurden statt günstiger.

Auch hat die PS5 pro grade mal 40% mehr Leistung zu einem deutlich höheren Preis. Das ist lächerlich wenig.

Auch in der Chipfertigung gehen mit kleineren Fertigungsverfahren die Kosten pro transistor nach oben, wo sie früher nach unten gingen. Früher konnte man gleich große chips mit deutlich mehr transistoren und somit gesteigerter performance zum gleichen Preis verkaufen, heute bedeutet das eine Preissteigerung, weil die fertigung teurer statt günstiger wird.

Wenn man bedenkt, dass PC hardware historisch exponenzielle Leistungssteigerung bei halbwegs konstanten Preisen mit sich brachte und wir mittlerweile fast schon bei nur noch linearer Leistungssteigerung angekommen sind, dann weiß ich nicht, wie lange das für den Markt noch gut gehen kann.

Ich würde meine 4080 z.B. frühestens aufrüsten, sobald ich doppelte Performance und doppelten VRAM zum gleichen Preis bekomme. Früher hätte ich auch problemlos bis 3x Performancesteigerung warten können, weil das max 1-2 Jahre mehr wartezeit waren.
Heute hab ich das gefühl, dass ich darauf noch 10 Jahre warten muss…
 
  • Gefällt mir
Reaktionen: Grestorn
xexex schrieb:
Also hältst du statt auf technische Lösungen zu setzen, GPUs für 20k in ein paar Jahren für tragbar?
Nein, aber das war ja auch nicht das Thema. Du hättest von "Zuwachs von Rechenleistung pro Euro (inflationsbereinigt und laufzeitbereinigt)" sprechen können. Hast Du aber nicht.

Das mehr Performance inzwischen praktisch nur noch linear mit dem Preis steigt, mag uns nicht gefallen. Hat aber keine Relevanz in der Betrachtung, wie sich (Raster-)Rechenleistung absolut gesehen entwickelt hat.
GPUs für 20k (inflationsbereinigt) werden auch niemals die von den Entwicklern empfohlene GPU für Mainstream Games sein. Besitzer solcher GPUs würden Games in absurd hohen Auflösungen oder FPS spielen können, aber das wars dann auch schon.

Nicht vergessen darf man dabei allerdings die effektive Nutzungsdauer moderner Grafikkarten. Wer sich vor einem Jahr eine 5090 gekauft hat, wird diese sehr wahrscheinlich auch in mehreren Jahren noch einwandfrei nutzen können. Meine zwei Jahre alte 4080 fühlt sich jedenfalls in allen neuen Games immer noch pudelwohl. Und ich spiele alles flüssig in 4k. Gelegentlich mit kleineren Abstrichen.
Die kolportierte 20k CPU wäre dann vielleicht ein Invest für 20 Jahre, wer weiß. Auch heute gilt ja schon, dass die Kosten pro Jahr nicht so brutal schlecht aussehen, wie die reinen Anschaffungskosten suggerieren.
Macht moderne Top GPUs nicht günstig, aber eine reine Preisgegenüberstellung irreführend.

Zu Zeiten der günstigen Highend Karten, durfte man gerne jährlich oder spätestens alle zwei Jahre neu kaufen, um neue Games überhaupt anständig spielen zu können.

Wie gesagt, die Einstiegsklasse stagniert und die Mittelklasse entwickelt sich im Schneckentempo. Das erhöht die Halbwertszeit aller Grafikkarten ganz enorm. Über die Grafik-APIs kommt ja auch kein Innovationsdruck mehr. Wer eine Dx7 GPU hatte, war beim Release von Dx8 gekniffen. Heute kaum noch vorstellbar

Ich mag auch nicht, wie sich die Leistungsaufnahme der GPUs entwickelt hat. Ist aber genauso irrelevant im Bezug auf die reine Performance-Evolution.
 
Zuletzt bearbeitet:
R4nd0 schrieb:
Was heisst den Nativ? Das ist sehr Engine und optimierungsabhängig. DLSS ist eine Notlösung für schlechte Engines. Der Artikel wird dem Thema nicht gerecht und suggeriert falsche Tatsachen.

Selbst DF die durchaus kompetent sein können haben dieses Thema nicht begriffen.


Wer bock hat auf das rabbithole.
wieder einer der denkt er hat ahnung... lass es dann wird das an ein game gezeigt wo die engine auch nicht gut ist.....
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Bin ich der einzige der das Flackern bei dlss wahrnimmt ?
2. Video bei call of duty, hinten der Baum, in der Mitte des Bildes und sehr präsent, außerdem in dem 3. video das Seil hinten und im ersten Video war
DLSS einfach am weitesten weg vom orginal.

Ich weiß, das bedeutet für viele gleich besser als das Orginal, für mich heißt das weit weg vom künstlerischen Stil und überscharf.

Rein von der Qualität war Nativ immer am besten und eigentlich hätte ich das auch wählen müssen, aber ich habe trotzdem einen upscaler gewählt, wegen des Stromverbrauchs, ich kann den einfach nicht mehr aus meinem Kopf kriegen, daher ist das bei mir mit eingeflossen. Sry ;)
 
Ich finde es geil, wie gut DLSS mittlerweile ist. Wobei man es bei TAA an nicht schwer hat, besser zu sein.

Jetzt brauchen wir noch noch eine flächendeckende Verfügbarkeit von DLSS, FSR und XeSS in Spielen, und das mit aktueller Version. Besser wäre, man könnte das einfach in der Nvidia/AMD/Intel App einstellen, dass jedes Spiel, sofern es technisch umsetzbar ist, mit DLSS/FSR/XeSS läuft.

Was für einen Preset muss man eigtl. einschalten, wenn man DLSS 4.5 bzw. 4 auf Quality haben möchte? Ich blicke bei den ganzen Presets nicht mehr durch.
 
Bei Assassins Creed ist nur bei Nativ der Staub (oder ist es Nebel) zu sehen.
Die AI-Varianten können also nicht alle Details abbilden. Das ist schlecht.
Bei Last of us sieht das bewegte Wasser bei DLSS ziemlich übel aus. Viel zu viel Gekräusel.
Der höhere Schärfegrad bei DLSS 4.5 hilft da auch nicht weiter.

Kommt mir vor wie die Diskussionen Ende der 90er bei Unreal (kennt das noch einer hier?).
"OpenGL ist ja sooo viel schneller mit den neuen Nvidia-Karten. Aber wo bleiben die volumetrischen Nebel vom 3dfx Glide??".
Auch damals hat man Geschwindigkeit gegen Qualität eingetauscht. Und die Benchmark-Jünger prahlten mit längeren Balken, konnten die ganze Schönheit des Spiels aber niemals mit ihren Nvidia-Karten sehen.

Und DLSS 4.5 flimmert immer stark. Das mag ich gar nicht. Wahrscheinlich wegen der überzogenen Schärfe. Wenn man stärker reinzoomt, verschwindet das natürlich immer mehr und mehr.

Edit: Danke, dass Native in den Test mit aufgenommen wurde! Es scheint eine echte Offenbarung zu sein. Ich bin eigentlich der Spieler, der DLSS immer anschaltet.
Vielleicht sollte ich doch erstmal DLSS weglassen, um wenigsten am Anfang mal alles, was die Grafik hergibt, anzuschauen, bevor ich in meinen gewohnten 60fps-DLSS-Quality Modus schalte.
 
Zuletzt bearbeitet:
Lexor-tm schrieb:
Das Nvidia PDF ist ein ganz schöner Brocken und zudem behandelt es DLSS 2.0, ist also stark veraltet.
Das Grundprinzip ist seit DLSS 2.0 das selbe. Die PDF Datei ist jetzt auch nicht so lang. Da ist man in 5-10 Minuten durch. Da zieht sich eher das Paper zum neighborhood clamping, welches NVIDIA häufiger in der Folie als Referenz aufführt. In den ist die reconstruction übers neighborhood clamping allerdings sehr gut beschrieben.

Der Begriff neighborhood clamping reconstruction stammt auch nicht von NVIDIA, sondern wie gesagt aus der Satelliten-Photographie. Dafür braucht es auch kein machine learning Modell. Die sind einfach nur besser darin die Artefakte die durch eine Kollision entstehen aufzuräumen. AMD macht es bei FSR 2 und 3 ja auch ohne ML Modell.

Lexor-tm schrieb:
Laut PDF nutzte aber selbst DLSS SR 2.0 bereits Deep Learning Reconstruction (nicht zu verwechseln mit Ray Reconstruction). Der Begriff Reconstruction taucht in dem Dokument 15 Mal auf.
Und hättest du dir das PDF und die von NVIDIA angeführte und von mir verlinkte Quelle zu neighborhood clamping reconstruction durchgelesen, wüsstest du was damit gemeint ist und das dabei eben keine neuen Pixel generiert werden.

Reconstruction = Auflösung von Kollisionen, wo es mehrere mögliche Pixel für die Stelle gibt. Nennt man auch neighborhood clamping reconstruction.

Und grundsätzlich scheinst du eine falsche Vorstellung vom Begriff reconstruction im Bereich der Signalverarbeitung zu haben. Jegliche Form von Anti Aliasing ist z.B. auch reconstruction.

https://link.springer.com/chapter/10.1007/978-3-540-36841-0_356

Selbes gilt z.B. auch für Texturfilterung (AF).
 
Zuletzt bearbeitet:
Interessanter Artikel. Cool das sich da bei AMD auch so viel getan hat.

Aber wenn man Nativ vs FSR/DLSS testet, müsste man dann nicht Nativ-FSR-DLSS vs Upscaling-FSR-DLSS testen?
 
  • Gefällt mir
Reaktionen: Fika
xexex schrieb:
Es ist kein "Trend", es ist schlichtweg der Tatsache geschuldet, dass sich in der Chipentwicklung immer langsamer, und in naher Zukunft gar nichts mehr tun wird. Auch wenn DLSS ebenfalls etwas Rechenzeit kostet, bedeutet der Sprung von 1080p auf 2160p nun mal die vierfache Pixelanzahl, glaubst du wirklich in absehbaren Zeit bezahlbare GPUs zu Gesicht zu bekommen, die mal eben viermal so schnell sind wie aktuelle Karten?

Nur zur Erinnerung, in den letzten 10 Jahren konnte die Leistungsfähigkeit knapp verdreifacht werden und die Entwicklung wird immer langsamer.
Das kann gar nicht sein! Ein Kind auf YouTube behauptet, dass nur er den Durchblick hat und alle anderen uns nur verarschen !!1!11!!!
Kannste dir nicht ausdenken...
 
  • Gefällt mir
Reaktionen: Lurtz, Grestorn, DaHell63 und eine weitere Person
gartenriese schrieb:
Aber es wird ja was erstellt, was vorher nicht da war.
Nein, es wird etwas gezeigt was vorher nicht sichtbar war.
Es war auch schon vorher da, es war nur nicht im pixelraster darstellbar, deshalb wurden ja mehrere Frames und jittering verwendet um zu erkennen was da ist und es dann entsprechend anzuzeigen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn, Melmoth und ElliotAlderson
xexex schrieb:
und in naher Zukunft gar nichts mehr tun wird.
...was aber einen grundsätzlichen Prinzip von Zeit und Fortschritt (technologisch) widersprechen würde. In der Regel erfolgt dann ein Sprung oder ein Übergang auf eine neue technologische Stufe. Zukunft ist mehr als unsere Vorstellungskraft in der Gegenwart hergibt.

Einzig bei menschlicher Vernunft tut sich schon seit längerer Zeit nichts mehr... 😅
 
Lamaan schrieb:
Bin ich der einzige der das Flackern bei dlss wahrnimmt ?
2. Video bei call of duty, hinten der Baum, in der Mitte des Bildes und sehr präsent,
Stell mal das Video auf 100/Vollbild und auf Play/Loop...da flimmert und flackert nichts.
Screenshot 2026-01-31 092004.png
 
  • Gefällt mir
Reaktionen: Grestorn
Taxxor schrieb:
Nein, es wird etwas gezeigt was vorher nicht sichtbar war.
Es war auch schon vorher da, es war nur nicht im pixelraster darstellbar, deshalb wurden ja mehrere Frames und jittering verwendet um zu erkennen was da ist und es dann entsprechend anzuzeigen
Wenn das tatsächlich so wäre, dann hab ich Mal eine Frage. Stell dir vor du benutzt DLSS Ultra Performance in 4k und du schaust dir im Spiel irgendeine Textur an und bewegst dich nicht. Wie kann dann die Textur mit DLSS mehr Details haben als wenn man sich nur das 720p-Bild anschaut?
 
Zurück
Oben