Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Was heisst den Nativ? Das ist sehr Engine und optimierungsabhängig. DLSS ist eine Notlösung für schlechte Engines. Der Artikel wird dem Thema nicht gerecht und suggeriert falsche Tatsachen.

Selbst DF die durchaus kompetent sein können haben dieses Thema nicht begriffen.


Wer bock hat auf das rabbithole.
 
Zuletzt bearbeitet:
Rickmer schrieb:
Aber wenn das mit den temporalen Daten (pixel dithering und was sonst erwähnt wurde) so einfach wäre, dann würden TAA und FSR 3 deutlich besser aussehen als sie es tun. Die haben ja auch temporale Elemente im Algorythmus.

Das neuronale Netzwerk kennt zwar das Wort nicht für die auf letzter Seite erwähnte Stromleitung, aber es kann eine erkennen und weiß, wie sie aussehen soll.


Eine Stromleitung wird trotzdem bei DLSS genau so erkannt wie bei TAA, nämlich gar nicht.
Dass dort drum herum Pixel sein müssen wird anhand der motion vectors und eben den gejitterten Vorgängerframes entschieden.

die Algorithmen von TAA und FSR 3 sind halt primitiver, können nicht mit so vielen samples gleichzeitig arbeiten und nicht so schnell entscheiden welche Pixel behalten werden sollen.


Du siehst in extremszenarien wie dem hochskalieren von 240p ja auch dass ne Stromleitung oder ein Ast von nem Baum auftaucht, wo in 720p gar nichts zu sehen ist. Die wird aber nicht erfunden weil der Algorithmus erkennt dass dort ne Stromleitung oder ein Ast sein müsste, die Info ist halt über mehrere Frames vorhanden, es reicht nur nicht um es in einem einzigen anzeigen zu können
 
  • Gefällt mir
Reaktionen: Grestorn
Wenn ich mal spekulieren darf: Ich nehme an(!) dass man bei FSR 4 und DLSS einfach viel mehr Frames einbeziehen kann als bei FSR 3 oder TAA, weil das Zusammenrechnen der Frames eben über die Tensor-Kerne bzw. über das AMD-Equivalent erledigt wird.

Und das nennt man dann Marketing-kompatibel "AI". auch wenn es nur sehr wenig mit AI zu tun hat, wie wir sie heute so nutzen.
 
Grestorn schrieb:
Was ist die Alternative zu TAA? Ja TAA verschluckt auch Details. Aber besonders Fake-Schärfe duch Pixelkanten.
Es ging darum, dass TAA nicht als Referenz taugt. Wolfgang hat ja auch bereits in Post #181 erklärt, dass nur DLSS 4.5 die specular Highlights korrekt rekonstruiert. Wäre es möglich die Vergleiche nicht mit TAA sondern mit SSAA durchzuführen, wären solche Erklärungen wahrscheinlich nicht notwendig und es kämen nicht die Einwände, dass DLSS 4.5 diese Details übertrieben darstellen würde.
 
  • Gefällt mir
Reaktionen: Boimler und Andre83hro
Muss wohl was nicht richtig verstanden haben, aber es sind 3 Modi. Das Video ist jedoch in nur 2 Bereiche unterteilt. Nativ und DLSS sind links. Wo ist nativ und wo ist DLSS?
 
Nolag schrieb:
Es ging darum, dass TAA nicht als Referenz taugt. Wolfgang hat ja auch bereits in Post #181 erklärt, dass nur DLSS 4.5 die specular Highlights korrekt rekonstruiert. Wäre es möglich die Vergleiche nicht mit TAA sondern mit SSAA durchzuführen, wären solche Erklärungen wahrscheinlich nicht notwendig und es kämen nicht die Einwände, dass DLSS 4.5 diese Details übertrieben darstellen würde.
Klar, kann man machen. Habe ich weiter vorne auch schon geschrieben.

Problem bei superSampling: Durch das Anheben der Renderauflösung wird bei den meisten Spielen die Mipmap Basis verschoben, was einen Vergleich erschwert. Das müsste man irgendwie unterbinden.
Ergänzung ()

lmfaktor schrieb:
Muss wohl was nicht richtig verstanden haben, aber es sind 3 Modi. Das Video ist jedoch in nur 2 Bereiche unterteilt. Nativ und DLSS sind links. Wo ist nativ und wo ist DLSS?
Ganz links ist native, in der Mitte DLSS und rechts FSR. Wenn Du keine 3 Bereiche siehst, läuft bei Dir was falsch.
 
  • Gefällt mir
Reaktionen: lmfaktor
Taxxor schrieb:
Eine Stromleitung wird trotzdem bei DLSS genau so erkannt wie bei TAA, nämlich gar nicht.
Dass dort drum herum Pixel sein müssen wird anhand der motion vectors und eben den gejitterten Vorgängerframes entschieden.
Demnach müssten neu auftauchende Objekte erstmal scheiße aussehen.
Und gegenteilig dürfte Ghosting bei Bewegung nicht auftreten wenn das mit den motion vectors so einwandfrei funktionieren würde.

Ich sage nicht, dass das alles nicht mit Teil der 'Magie' ist, aber ich bin der Meinung, dass du die Lernfähigkeit von neuronalen Netzwerken unterschätzt. Die sind mehr als ein 'jitter accumulator' oder wie auch immer man das ausdrücken will.

In dieser Beziehung finde ich dieses Video absolut faszinierend, weil es die erste Erklärung ist wo ich erstmals irgendwie kapiert habe was in einem neuronalen Netzwerk (hier ein LLM) vor sich geht wenn es aus Trainingsdaten abstraktere Mechanismen ableitet und lernt.
 
  • Gefällt mir
Reaktionen: Andre83hro
Grestorn schrieb:
Ganz links ist native, in der Mitte DLSS und rechts FSR. Wenn Du keine 3 Bereiche siehst, läuft bei Dir was falsch.
Hast recht, liegt am Cent Browser. Mit Firefox habe ich 3 Bereiche.
Ergänzung ()

Allerdings, wenn ich mir ein Ausschnitt vergrössert anschaue, ist da nicht nur Hochskalierung am Werk. Das Bild bei DLSS sieht im Vergleich klarer aus, sogar sehr deutlich klarer. Mit Skalierung der Auflösung hat das aber nichts zu tun. Man bekommt das mit bestimmten Filtern bestimmt hin. Wenn man zusätzliche Filter mit rein packt und behauptet es sei nur die Hochskalierung, dann deckt sich das nicht mit meiner Erfahrung und dem, was ich sehe im Vergleich. Ich sehe deutlich, dass im Vergleich zu nativ, DLSS kein Nebelschleier hat. Wo ist er plötzlich hin?
Bild_2026_01_30_19_01_40_631.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
@lmfaktor DLSS ist ja auch keine Hochskalierung, Computerbase schreibt ja nicht umsonst immer Upsampling und nicht Upscaling. Auch weiter vorne im Thread haben viele schon sehr gut erklärt, wie die DLSS- und FSR-Algorithmen funktionieren.
 
  • Gefällt mir
Reaktionen: Grestorn
Pro_Bro schrieb:
Die schnellste AMD Karte mit FSR4 ist die 9070 XT, diese widerrum werden die wenigsten kaufen um damit dann auf UHD zu spielen
Warum den nicht? Laut Benchmark von Dienstag im Schnitt 92 FPS. In Balanced dann ca 80, ist doch okay, zur Not Details runter oder FG an.
Bierliebhaber schrieb:
Bei CP2077 z.B. sieht FSR4 auch auf Quality in 1440p noch einfach mies aus.
Sämtliche FSR Features welche CD Projekt RED integriert hat, sind Murks. Das muss Absicht sein, weil Frame Generation per Mod besser funktioniert, als das welches später per Update kam. Einzige was okay ist, ist FSR 4 Upscaling.
 
Kann man denn mittlerweile sagen 4.5 M performance ist besser als 4.0 K quality bei einer Auflösung von 4k? 4.5 m quality finde ich schon stark überschärft in Arc Raiders
 
ebird schrieb:
Also ich kann die Wertung nicht nachvollziehen. Auch wenn DLSS schärfer als Nativ ist, ist es nicht das Original sondern ein abgeändertes Bild und entspricht nicht mehr dem, was die Macher sich gedacht haben. Da ist FSR immer näher am Original dran als DLSS und für mich die bessere Technik.
Das ist wie bei den ganzen Fernseheinstellungen mit Sättigung hoch und Nachtschärfen auf Maximum, sodass es nur noch unnatürlich aussieht.

P.S.
DLSS bringt auch immer wieder kleinere Artefakte durch das nachschärfen, die ich bei FSR nicht gesehen habe. Siehe Screenshot.
Ich kann diesen Kommentar nicht nachvollziehen. Woher denkst Du zu wissen, wie die Macher sich die Optik ihres Spiels gedacht haben?

Vielleicht ist es bei den Machern ganz ähnlich, wie bei den Gamern - die meisten finden womöglich das DLSS 4.5 Bild besser?
Vielleicht werden Spiele mittlerweile ganz bewusst so gestaltet, dass sie in Kombination mit modernen Upscalern das für den Entwickler beste Bild erzeugen?
Vielleicht sind Entwickler aber auch gar nicht homogen und es gibt in den Studios Designer mit abweichenden Präferenzen? Während dem einen Designer das Bild bereits zu scharf ist, ist es für dem anderen vielleicht noch zu verwaschen?

Was genau ist für Dich das Original? Ist TAA für Dich noch original, obwohl das Bild dabei auch schon massiv verändert wird? Es kommt seit 10, 15 Jahren kein "Grafikkracher" mehr auf den Markt, der ohne Nachbearbeitung ausgekommen wäre.

DLSS / FSR ist letztlich nur ein weiterer Post-Processing-Effekt auf einem riesigen Stack von Post-Processing-Effekten.

Zuerst war vielen Leuten das hochskalierte Bild zu unscharf. Jetzt gilt für viele offenbar das Gegenteil. Ich frage mich, wie groß die Schnittmenge der beiden Gruppen ist. Für die gewünschte Schärfe gibt es zumindest bei DLSS übrigens meistens einen Regler. Da kann man sich das Bild richtig schön matschig machen, wenn man es denn möchte.
 
  • Gefällt mir
Reaktionen: Grestorn
mario_mendel34 schrieb:
@lmfaktor DLSS ist ja auch keine Hochskalierung, Computerbase schreibt ja nicht umsonst immer Upsampling und nicht Upscaling. Auch weiter vorne im Thread haben viele schon sehr gut erklärt, wie die DLSS- und FSR-Algorithmen funktionieren.
Wäre mir neu, wenn irgendjemand hier wüsste, wie DLSS tatsächlich funktioniert. Was da drin alles steckt. Wäre sicher auch hilfreicher, wenn man konsequent Deutsch verwendet, damit keine Missverständnisse entstehen.
Computerbase schreibt ja nicht umsonst immer Upsampling und nicht Upscaling.
Erklärt doch überhaupt nicht, wie so etwas entstehen kann. Oder ist etwas, was du als Upsampling bezeichnest, zum einen "Überaschungsei" von zig Filter geworden?
 
Ich hab die Überschrift gelesen und mich gefreut, dass dieser Nachtest gekommen ist, auch wenn ich selbst kein Nativ-Verfechter bin. Es war aus dem letzten Artikel ausgehend "aus Prinzip" notwendig, denke ich.

Jedenfalls habe ich mir vor dem Angucken der Vergleiche vorgenommen, möglichst nicht auf die Beschriftung zu achten, um es wie ein Blindtest nutzen zu können. Spoiler: Hat nicht funktioniert,

Aber die Ergebnisse sprechen für meine Augen eine deutliche Sprache. DLSS ist einfach heftig geworden! In all den Jahren habe ich den grünen noch nie so viel Lob gelassen wie in letzter Zeit und ich finde mit DLSS 4.5 haben sie das mehr als verdient! Viele sehen vielleicht nur nen A/B Vergleich, aber ich bewundere bei sowas immer auch das Engineering dahinter und das ist einfach krass gut.

Übrigens: Schaut euch die Ergebnisse unbedingt im Vollbildmodus an, sonst kann die Überschärfung mit DLSS so wirken als gäbe es ein diminishing return im Anti-Aliasing. Das ist bspw. sehr gut zu sehen in der geteilten Bildschirmansicht in Black Ops 7 (Video abspielen lassen).

Ich freu mich schon auf den echten Blindtest. Schade finde ich nur eins: Dass ich weder DLSS, noch FSR AI nutzen kann.
 
  • Gefällt mir
Reaktionen: Andre83hro
Fika schrieb:
Sämtliche FSR Features welche CD Projekt RED integriert hat, sind Murks. Das muss Absicht sein, weil Frame Generation per Mod besser funktioniert, als das welches später per Update kam. Einzige was okay ist, ist FSR 4 Upscaling.
Es ist ja allgemein bekannt, dass CDPR eng mit Nvidia zusammenarbeitet, um es mal neutral zu formulieren. Da darf FSR auch nicht optimal aussehen ;)
 
  • Gefällt mir
Reaktionen: Fika
lmfaktor schrieb:
Wäre mir neu, wenn irgendjemand hier wüsste, wie DLSS tatsächlich funktioniert.
Der Aspekt mit dem temporalen Algorithmus und dem Jittering ist bekannt. Steht auch in der Wikipedia so.
 
lmfaktor schrieb:
Wäre mir neu, wenn irgendjemand hier wüsste, wie DLSS tatsächlich funktioniert. Was da drin alles steckt. Wäre sicher auch hilfreicher, wenn man konsequent Deutsch verwendet, damit keine Missverständnisse entstehen.
Wie DLSS oder FSR grundsätzlich funktionieren, weiß man natürlich, blättere doch einfach mal den Thread zurück.😉 Es werden anhand mehrerer Frames, in denen der Bildauschnitt per Jitter immer minimal verschoben wird, neue Bilder in einer viel höheren Auflösung erzeugt. Durch die temporale Verrechnung der gejitterten Bilder kannst du mit relativ niedrigen Renderauflösungen echte Feindetails ins finale Bild bekommen, die von der Bildqualität sogar Supersampling übertreffen. Genau das macht DLSS 4.5 inzwischen so gut.

lmfaktor schrieb:
Erklärt doch überhaupt nicht, wie so etwas entstehen kann. Oder ist etwas, was du als Upsampling bezeichnest, zum einen "Überaschungsei" von zig Filter geworden?
Upscaling ist das simple Hochskalieren eines fertigen Frames mit irgendeinem Filter. Das haben DLSS 1 und FSR 1 so gemacht. Sah beides kacke aus. Upsampling hingegen errechnet aufwändiger das finale Bild. Computerbase spricht bei DLSS und FSR immer von Upsampling, nicht von Upscaling. Weil es halt kein Upscaling ist.😉
 
  • Gefällt mir
Reaktionen: Grestorn
Super Sache der Vergleich. Danke, dass das mal angegangen wurde.

Als alter AMD-Andy dann doch jedes Mal DLSS4.5 gewertet. Bin mal auf den Blindtest gespannt.

Axonteer schrieb:
Scheinen wohl viele Emotionen von langen und intensiven Kommentardiskussionen mitzuschwingen 🙃.

Ja, die Diskussion ist müßig und auch lang anhaltend in jedem Thread zu jedem Spiel zu finden. Murmeltiertag.

SuperHeinz schrieb:
Ich denke mal viele der Skeptiker fassen die neuen Techniken nicht an, weil...

hab dich mal abgekürzt weil Vollzitat.

Beim Wort "Skeptiker" liegt auch die Crux. Hab erst heute wieder was gelesen, wie skeptisch wir Deutschen so sind (also im Vergleich ^^)

Es ist gar nicht so lange her, da hab ich auch wieder Kommentare gelesen, wieso mit 720p getestet wird (CPU-test). Da fragst dich auch noch 20+Jahren oder noch mehr... bzw. greifst dir an den Kopf. Vielleicht ists auch nur low level trolling kA.
 
  • Gefällt mir
Reaktionen: Return2Burn, Axonteer und Grestorn
mario_mendel34 schrieb:
Wie DLSS oder FSR grundsätzlich funktionieren, weiß man natürlich, blättere doch einfach mal den Thread zurück.😉 Es werden anhand mehrerer Frames, in denen der Bildauschnitt per Jitter immer minimal verschoben wird, neue Bilder in einer viel höheren Auflösung erzeugt. Durch die temporale Verrechnung der gejitterten Bilder kannst du mit relativ niedrigen Renderauflösungen echte Feindetails ins finale Bild bekommen, die von der Bildqualität sogar Supersampling übertreffen. Genau das macht DLSS 4.5 inzwischen so gut.


Upscaling ist das simple Hochskalieren eines fertigen Frames mit irgendeinem Filter. Das haben DLSS 1 und FSR 1 so gemacht. Sah beides kacke aus. Upsampling hingegen errechnet aufwändiger das finale Bild. Computerbase spricht bei DLSS und FSR immer von Upsampling, nicht von Upscaling. Weil es halt kein Upscaling ist.😉
Gibt es dazu eine allgemein anerkannte Definition in einem Lehrbuch oder so? Wenn ich die beiden Begriffe google, oder ChatGPT befrage, bekomme ich andere Ergebnisse.

Demnach:
Ist AI-Upscaling (Unterkategorie) immer eine Form von Upsampling (Oberkategorie)
und
Ist DLSS 4.5 Super Resolution immer AI-Upscaling und damit auch Upsampling. Übrigens könnte man den Marketing Begriff "Super Resolution" auch recht sauber in "Upscaling" übersetzen.

Aber:
Upsampling umfasst als Oberkategorie noch weitere Formen der Aufbereitung, wie z.B. Bilineare Filter oder eben auch weitere Werkzeuge aus dem DLSS Baukasten. Selbst der Denoiser und die Frame Genration sind demnach Formen von Upsampling (was durch den Begriff Deep Learning Super Sampling ja bereits deutlich wird - gleiches Marketing-Blingbling wie bei bei Super Resolution)

PCGH, die Gamestar und laut Google auch CS spricht bei DLSS Super Resolution meines Wissens übrigens von Upscaling, nur um die Verwirrung perfekt zu machen. ^^
https://www.computerbase.de/artikel/grafikkarten/upscaling-faq-nvidia-dlss-amd-fsr-intel-xess.86657/
https://www.pcgames.de/Hardware-The...nti-lag-intel-xess-technik-erklaeren-1468654/
https://www.gamestar.de/artikel/intel-cgqvm-bewertung-upscaling-frame-generation,3436435.html

Nur weil etwas hochskaliert wird, muss es sich dabei noch lange nicht um etwas simples handeln.
 
DaHell63 schrieb:
deine Meinung hat nicht mit subjektiv zu tun
FSR ist auch hier ganz klar letzter
Das bestimmst du neuerdings oder was? Das Wort subjektiv würde ich auch noch mal nachschlagen.
 
  • Gefällt mir
Reaktionen: Return2Burn und Andre83hro
Zurück
Oben