Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

ev4x schrieb:
Immer noch besser als AMD die FSR4 exklusiv für RDNA4 gemacht haben obwohl es auch auf RDNA 2 und 3 mit niedriger Performance laufen könnte.
Und die viel größere Sauerei ist für mich das man damals... obwohl genau das absehbar war wie sich DLSS4 und FSR4 entwickeln.... und es klar war das FSR4 für RDNA4 only kommt...

noch groß und breit für RDNA3 Karten Kauf Empfehlungen rausgehauen hat..
gerade für die kleinen Modelle die damals schon auf upscaling angewiesen waren..
Modelle die sich Leute gekauft haben die n Schnäppchen machen wollten weil sie eventuell gar nicht soviel Geld haben...
sind nun einfach richtig vor dem Kopf gestoßen worden.. damals 50€ gespart und können nun doppelt so schnell wieder Geld für ne neue Karte in die Hand nehmen
 
  • Gefällt mir
Reaktionen: Pro_Bro und ev4x
ev4x schrieb:
Wenigstens lässt Nvidia den Kunden die Wahl im Gegensatz zu AMD.
Bei Frame Gen oder Treiberframegen lässt man dem, Kunden nicht die Wahl. Ich bleibe auch dabei. Man kann man es nicht als ideal bezeichnen das der Kunde in jedem Game erstmal testen muss ob es für ihn zufriedenstellend läuft oder nicht.
ev4x schrieb:
Das DLSS4.5 Modell ist FP8 beschleunigt und die RTX 20 und 30 Karten können kein FP8 klar das es langsamer läuft mit Emulation.
FSR4 ist ebenfalls FP8 beschleunigt und RX7000/6000 können kein FP8.
ev4x schrieb:
RDNA 2 und 3 mit niedriger Performance laufen könnte.
Die FSR Int8 Version ist aus unvollständigen Daten erstellt worden. Niemand weiß in welchem Entwicklungstand sich FSR4 Int8 befunden hat und wie dann die finale Version performt hätte.
 
  • Gefällt mir
Reaktionen: SweetOhm
No_Toxic_Gamer schrieb:
Bei Frame Gen oder Treiberframegen lässt man dem, Kunden nicht die Wahl.
Den Karten fehlen die Hardware Einheiten dafür.
No_Toxic_Gamer schrieb:
FSR4 ist ebenfalls FP8 beschleunigt und RX7000/6000 können kein FP8.
Was hindert AMD daran eine Treiberseitige Emulation hinzuzüfügen so wie es Nvidia für RTX 20 und 30 mit DLSS 4.5 gemacht hat.
No_Toxic_Gamer schrieb:
Die FSR Int8 Version ist aus unvollständigen Daten erstellt worden. Niemand weiß in welchem Entwicklungstand sich FSR4 Int8 befunden hat und wie dann die finale Version performt hätte.
Es geht einfach ums machen was Nvidia kann sollte für AMD auch möglich sein.
 
Wird es DLSS 4.5 auch für die Switch2 geben?
 
No_Toxic_Gamer schrieb:
Bei Frame Gen oder Treiberframegen lässt man dem, Kunden nicht die Wahl. Ich bleibe auch dabei. Man kann man es nicht als ideal bezeichnen das der Kunde in jedem Game erstmal testen muss ob es für ihn zufriedenstellend läuft oder nicht.
das muss man bei AMD aber auch so sagen wo sie einem die persönliche freiheit lassen...
gibt spiele da läuft FG oder Treiber Framegen besser.. und bei manchen schlechter.. auch hier muss jeder testen ob es für ihn zufriedenstellend läuft oder nicht.
der unterschied ist.. er hat die Wahl

No_Toxic_Gamer schrieb:
FSR4 ist ebenfalls FP8 beschleunigt und RX7000/6000 können kein FP8.
aber INT8
No_Toxic_Gamer schrieb:
Die FSR Int8 Version ist aus unvollständigen Daten erstellt worden. Niemand weiß in welchem Entwicklungstand sich FSR4 Int8 befunden hat und wie dann die finale Version performt hätte.
aber wir wissen mittlerweile von den ganzen moddern in etwa wie die INT8 Beta performt..
etwa ähnlich wie RTX2000 mit DLSS4.5
Verluste sind vorhanden.. aber auch die Bildqualität gesteigert.
etwas worauf man hätte aufbauen können.. durch die emulation hätte man durchaus einige aktuelle verbesserungen auch mit nehmen können..
man hätte nur entsprechend einen Emulationspfad zur aktuellen FSR4 version hinzufügen müssen.

und auch FSR5 wird wahrscheinlich auf RDNA4 einen Performance impact haben wenn es komplexer wird/werden muss zur Qualitätssteigerung.... genauso wie DLSS5 das tun wird

ich glaub wir sind da technisch an n punkt angekommen wo sich das nicht mehr vermeiden lassen wird das komplexere upscaling Modelle auch mehr Leistung fressen werden auf Bestandskarten
 
slogen schrieb:
Wird es DLSS 4.5 auch für die Switch2 geben?
Zu 99,9% nicht. Hat Wolfgang hier schon erklärt dass es ein Custom DLSS Lite ist was die Switch 2 nutzt. Die AOPU ist doch auch eine ältere Architektur die kein INT8 nutzt und emulieren müsste.
 
Blackfirehawk schrieb:
aber wir wissen mittlerweile von den ganzen moddern in etwa wie die INT8 Beta performt..
ich bezweifle das die Daten schon Beta waren.
Blackfirehawk schrieb:
etwa ähnlich wie RTX2000 mit DLSS4.5
was nicht wirklich gut ist. gameabhängig.
Blackfirehawk schrieb:
ch glaub wir sind da technisch an n punkt angekommen wo sich das nicht mehr vermeiden lassen wird das komplexere upscaling Modelle auch mehr Leistung fressen werden auf Bestandskarten
ja. da kann man dir zustimmen. Das wird so sein.
 
  • Gefällt mir
Reaktionen: Andre83hro
No_Toxic_Gamer schrieb:
was nicht wirklich gut ist. gameabhängig.
dafür aber mit entsprechender Verbesserung der Bildqualität.

solange ich eine Verbesserung der Bildqualität sehe ist der Performance Verlust für mich vertretbar bis zu dem punkt wo es unspielbar wird.. ganz einfach

mich kostet DLSS4.5 Quality mit Preset M auch meine ca 10+-% FPS in Call of Duty auf meiner RTX5090
ist mir aber relativ Scheiß egal... nicht weil ich aufgrund der Rohleistung den Performance verlust verschmerzen kann..
sondern weil ich in Bewegung besser sehen kann durch das verminderte ghosting.. und durch die zusätzliche Bild Schärfe und Klarheit gefühlt 50-80m weiter Ingame Details und Gegner sehen kann auf meinem 4K monitor
 
Zuletzt bearbeitet:
ev4x schrieb:
Wenigstens lässt Nvidia den Kunden die Wahl im Gegensatz zu AMD. Das DLSS4.5 Modell ist FP8 beschleunigt und die RTX 20 und 30 Karten können kein FP8 klar das es langsamer läuft mit Emulation. Immer noch besser als AMD die FSR4 exklusiv für RDNA4 gemacht haben obwohl es auch auf RDNA 2 und 3 mit niedriger Performance laufen könnte.
Jeden das seine ;-)
 
  • Gefällt mir
Reaktionen: SweetOhm
Als ehemaliger AMD Fanboy (2010), bin ich mittlerweile schon durchaus enttäuscht, das ganze rumgemache seitens AMD mit dem Splitting usw. Das stinkt zum Himmel. Da steckt nichts weiter als Profitgier dahinter, es ist so offensichtlich. Auf meinem Steamdeck läuft Fsr4 aber nur inoffiziell. AMD könnte die gesamte Geschichte offiziell machen. Wird aber bewusst nicht getan. Keine Firma ist Heilig, aber bei der nächsten GPU zieht es mich mittlerweile nach Team Grün. FSR 3 sieht einfach shice aus, im Vergleich zu Fsr4 das sehe ich sogar auf dem popligen Steamdeck Bildschirm. Als rx7xxx besitzer würde ich mich richtig betrogen fühlen. Mfg ist zwar dasselbe bei Nvidia aber immerhin, sieht das Bild auf 20er Karten noch gut aus.
Für mich ist das Upscaling mittlerweile das wichtigste Feature einer GPU. Ohne sehen die Spiele durch die Bank weg schlechter aus, mit ein paar Ausnahmen. Und wir reden hier nicht von Raytracing, bei dem sich immer noch viele uneinig sind, was nun besser aussieht.
Bei mir ist aus diesem Grund mittlerweile
7800xt <= 9060xt. Die ganze Rohleistung bringt nichts, wenn ich nachher mehr FPS bei gleichwertiger oder Besserer Bildqualität habe.
Es ist leider so das die <9000er GPUs zum alten Eisen gehören, und das ist gewollt so. Etwas anderes zu Behaupten, ist, die Augen vor der Wahrheit zu verschließen.

Grüße Zimmbo
 
Blackfirehawk schrieb:
mich kostet DLSS4.5 Quality mit Preset M auch meine ca 10+-% FPS in Call of Duty auf meiner RTX5090
ist mir aber relativ Scheiß egal
Das ist aber ein schlechtes Beispiel. Bei COD wären mir - 15% auch scheiss Egal wenn ich bei über 150FPS wäre.
In erster Linie geht es mir um das Gesamtbild und wie smooth ein Spiel läuft. Diese mit der Lupe auf einzelne Bilder schauen ist realitätfern. Wenn ich Bilder schauen will, hänge ich mir diese an die Wand ;).
Ergänzung ()

@Zimmbo Grundsätzlich hat man als Fanboy ein schweres Leben. Man verzichtet oftmals auf der bessere Produkt. Und warum fühlt man sich betrogen? Also man die Karte kaufte war jedem klar das FSR DLSS unterlegen ist. Mit FSR4 hat AMD einen guten Sprung gemacht und den Abstand zu DLSS deutlich verringert. Ich sehe das Positiv, allenvoran das die Karten auch für einen guten Preis zu haben sind. Es gibt mir als Kunden die bessere Auswahl.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Alphanerd, simonx und eine weitere Person
Was viele hier nicht beachten, das Upscaler auch mit der Bildgröße starken optischen Einfluss haben.
Auf zB 27" siehts nämlich ganz anders aus als auf 42" oder dem noch großerem WoziTV.
Hier sieht man nämlich erstmal richtig was geht, bei 4k sowieso und je großer das Bild umso besser wirkt das.
Ein Grund warum natives Gaming, auch wenn die FPS locker reichen, bei mir DLSS immer an ist.
Nicht nur weil ich ich mich an der ersparten Energie erfreue, sondern weil in 99% DLSS einfach besser aussieht als nativ, die zusätzliche Schärfe und deutlicheren Details nimmt man da gerne mit.
Auf 27" Gurken, besonders wenn man noch Schärfe im Menü an hat, wirkt das natürlich überschärft.

Im SideBySide vergleich 27" native vs 42" DLSS ( Q und sogar Balanced , beide 4k Oleds ) kann der 27" komplett einpacken, und nimmt man auf den 27" DLSS, wirkts überscharf, sogar noch wenn man am Moni die Schärfe auf 0 setzt und viele Details gehen "unter" wegen dem "kleinem" Bildverhältnis, die bei 42" naturgemäß eher gesehen werden, was ebenfalls eher dafür spricht.

Klar, ein DLSS Schärferegler wäre wünschenswert.

Wie immer aber beeindruckend auch am WoziTV wo nativ eine Ziegelmauer wie ne lowress-Textur aussieht, mit DLSS dann plötzlich jede Fuge und sogar Ziegelbrüche zu sehen sind 😁.
 
Hier mal ein paar Zahlen und Erkenntnisse von meinem Zweitrechner aus dem Lower End-Segment.

Grafikkarte: RTX 3060 12 GB
Spiel: Read Dead Redemption 2
Auflösung: 4k


DLSS 3.5 / Preset E:
Ultra Perf. -> 70 fps
Performance -> 61 fps
Balanced -> 56 fps
Quality -> 52 fps


DLSS 4.0 / Preset K:
Ultra Perf. -> 59 fps
Performance -> 52 fps
Balanced -> 49 fps
Quality -> 43 fps


DLSS 4.5 / Preset M:
Ultra Perf. -> 54 fps
Performance -> 38 fps
Balanced -> 33 fps
Quality -> 28 fps



Erkenntnisse zur Leistung:
  • Der Schritt von DLSS 3.5 auf DLSS 4 hat schon ordentlich FPS gekostet: Ca. 14-17%. Je nach Qualitätsstufe.
  • Bei Ultra Performance ist der fps-Verlust von DLSS 4.0 auf DLSS 4.5 deutlich erträglicher als bei anderen Qualitätsstufen: nur rund 9%.
  • In den anderen Qualitätsstufen sind es hingegen stolze 27-34%.

Erkenntnisse zur Grafikqualität:
  • Preset M mit Ultra Performance sieht überraschend gut aus.
  • Das sieht tatsächlich besser aus als DLSS 3.5 auf Quality.
  • Und auch besser als DLSS 4.0 / Preset K auf Performance.

Was mich insgesamt überrascht hat:
  • Die Kombination aus Preset M + Ultra Performance kann sogar auf RTX30 Karten Sinn machen. Das wäre auf dem Zweitrechner der bevorzugte Spielmodus mit dem besten Kompromiss aus Leistung und Bildqualität.
 
  • Gefällt mir
Reaktionen: SweetOhm
Extraportion25 schrieb:
Klar, ein DLSS Schärferegler wäre wünschenswert.
Viele Spiele haben einen Schärferegler eingebaut..per Default oft auf 50% in vielen Spielen...
viele haben auch vergessen das sie so einen Filter irgendwann mal eingestellt haben wenn sie zwischen den presets vergleichen..

und ich empfehle den erstmal auf 0 zu setzen bevor man meint das DLSS4.5 überschärft ist..

Je nach Spiel und Implementierung kostet dieser Filter auch n paar FPS zusätzlich.. teilweise überraschend viel sogar..
Bei CoD verlier ich von 0 auf 100% schärfefilter etwa 10-15fps .. bei ca 200fps sind das durchaus 5-7% leistungsverlust.

Mit preset M muss ich gar nix mehr nachschärfen weils für mich sehr gut aussieht
 
  • Gefällt mir
Reaktionen: Brrr und Gravlens
Ich sehe und verstehe den Vorteil, aber ich hätte gerne wieder reine, unverfälschte FPS. Alles andere gerne zusätzlich, aber ich würde doch gerne wissen was die Hardware Nativ leisten kann, alles andere kann man ja zusätzlich machen.

Aber für mich ist ein Hardware-Test ein Hardware-Test... Ich will nicht wissen was man mit KI oder Software Faken kann, sondern bitte echte, ehrlich gerenderte Frames wenn das geht. 🙂

Edit: Hatte ein T zuviel gekauft ^^
 
  • Gefällt mir
Reaktionen: SweetOhm und Andre83hro
Falls hier jemand auch das Problem hat, dass die Nvidia App 11.0.6.374 Beta nicht mehr richtig lädt und sich mit einer Fehlermeldung verabschiedet, gibt es einen Workaround:
1768004722016.png
https://www.nvidia.com/en-us/geforc...6-beta-feedback-thread-released-1526/3585768/

Wichtig hierbei ist den umbenannten DrsTemp-Ordner am Ende wieder zurück in Drs umzubenennen, sonst werden die Einstellung nicht abgespeichert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
@unspektakulaer

Tja, das ist aber leider nicht mehr Zeitgemäß. Wenn du "reine" FPS willst, kommst du mit non higend Hardware, und auch immer seltener mit higend Hw kaum noch spielbar hin. Und sowie du Regler extrem schieben musst, verfälscht das eben auch wieder.

Außerdem, sind reine Hardwaretests schlicht kaum noch aussagend, da eh Treiber, Engines, Patches und gameinterne "Schummeleien" wie zB das Gameintern schon mit niedriger Auflösung gerendert wird um die schlechte Performance zu überdecken, alles beeinflussen.

Und was das "Faken" angeht, ist das Ansichtssache, da immer nur zählt was am Ende raus kommt. Und DLSS sind keine Fakeframes, sondern nachbearbeitete Bilder. FG ist natürlich wieder was anderes 🤣
 
  • Gefällt mir
Reaktionen: ElliotAlderson, Seby007 und unspektakulaer
@Extraportion25 Wenn es hier keine Hardwaretests, also so richtig, ohne 27,5x MultiMultiFG mehr gibt, dann macht aber auch hier lesen keinen Sinn mehr. Ich bin hier weil ich wissen will was die Hardeware leistet, nicht was ein Algorithmus daraus schätzt. Waren wir nicht alle mal deswegen hier? Zukunft hin oder her, wenn Rohleistung keine Rolle mehr spielt kauf ich mir demnächst das Auto mit dem meisten Rückenwind.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ich habe mir diese Funktion bei Grafikkarten schon seit langer Zeit gewünscht, aber viele Kollegen konnten darin keinen echten Mehrwert erkennen. Dabei macht Super Resolution einen deutlich sichtbaren Unterschied.

Ein anderes Beispiel
Ich gehörte damals vermutlich zu den Ersten, die diese Technik bei Fernsehern erleben konnten. Philips hatte Super Resolution bereits früh in seinen TV-Menüs integriert. Bis heute fehlt diese Funktion jedoch bei Sony, Panasonic und Samsung was oft zu einem eher flachen, weichen Bild führt.

Es ist kein Zufall, warum Philips‑Geräte oder auch LG‑WOLED bzw. Primary‑WOLED‑Panels so beeindruckend scharf wirken.
Diese nutzen Double oder sogar Triple Super Resolution.

Und ganz ehrlich, auch in VR ist der Unterschied enorm. Super Resolution liefert dort einen klar erkennbaren, sichtbaren Qualitätssprung. 👁👁
 
unspektakulaer schrieb:
@Extraportion25 Wenn es hier keine Hardwaretests, also so richtig, ohne 27,5x MultiMultiFG mehr gibt, dann macht aber auch hier lesen keinen Sinn mehr. Ich bin hier weil ich wissen will was die Hardeware leistet, nicht was ein Algorithmus daraus schätzt.
Das ist aber Dein persönlicher und prinzipieller Konzeptfehler.
Die GPUs werden nicht mehr wegen der "Rohleistung" bepreist, da machen diese Tests dann auch wenig Sinn.

Das Featureset wird inklusive der Architektur gekauft, egal wie doof Du das findest.
Du kannst keine 9070XT oder 5070Ti "ohne" DLSS und "ohne" FSR kaufen.
Nvidias Marketing kennen wir seit RT und DLSS1 2018.
Aber selbst AMD hat FSR4 inszeniert, die 9070/XT war nur das Vehikel!

FSR und DLSS inkl. Rekonstruktion > nativ AA. Mittlerweile seit Jahren.
Wer "nativ" spiel, verzichtet auf Frames und Bildqualität.
Ich finde das einfach nur lächerlich, hier noch in die Diskussion zu gehen.

Selbst eine Playstation 5 ist eine 30 fps Krücke ohne die Algorithmen.

Das kannst Du nicht mehr isolieren, it's over.


Ich hatte die Diskussion mit einem Kollegen, der eine 5080 für die "Rohleistung" (lol) unter 4K zähneknirschend gekauft hat. Als er dann feststellte, was er für einen visuellen Qualitäts&FPS-Sprung durch DLSS erhielt, hat er dann auch seine absurde Haltung aufgegeben.

Mit den aktuellen DLSS Varianten macht die Leistungsdebatte ohne diese Feature keinen Sinn mehr.
Das nicht zu nutzen, macht keinen Sinn mehr.

Wir hatten vor über 7 Jahren dieselbe Diskussion mit dem Upscaling.
Mittlerweile stellt niemand mehr FSR und DLSS Upscaling infrage.
Die Upscaling Qualität 2025 und 2026 hat absolut gar nichts mehr mit den Anfängen 2019 zu tun.

Ich stimmt aber zu, dass MFG jetzt noch die Defizite hat.
Noch.
Die hatte Upscaling anfangs auch.

Mit der nächsten AMD Gen (ich sagte schon vor Jahren, dass AMD das Feature lockin für die neueste Architektur von Nvida kopieren wird, weil sie keine Wahl haben) und Nvidia GPU Gen und FSR 5 und DLSS 5 oder DLSS 6 wird FG final etabliert und durch Hardware auf das nächste Level gehoben.

Es fehlt der Evolutionschritt, den DLSS 2 und FSR 4 analog des Upscalings hatten, das wird bei der FG dann auch kommen.

Daher nochmal abschließend
"Ich bin hier weil ich wissen will was die Hardeware leistet, nicht was ein Algorithmus daraus schätzt. "

Eine 6090 wird "roh" auch in 4K PT bei Cyberpunk verkacken, wenn ich es maxed mit 120 bis 140 minfps genießen will.
DLSS ist die Magie, die genau das aber ermöglicht, und dann auch bis in die 70er Klasse hinein.

Mich interessiert also, was diese Hardware leistet, und zwar in VERBINDUNG mit dem DLSS und FSR Output.
Das ist die Pointe :-)

Bitte nicht angegriffen fühlen, aber die Hardware "Leistungsdebatte" ist nach den neuesten FG und Upscaling Evolutionen halt langsam nicht mehr zeitgemäß.

Die Hardware ist nur noch das Fundament um den Output der Feauturesets zu bestimmen, die man de facto kauft.
"Ich spiele nur Raster ohne DLSS/FSR", ja, Grüße zurück in das Jahr 2018; aber wir haben 2026 ;-)



Falls ich Dich völlig falsch verstanden habe, @unspektakulaer bitte ich um Verzeihung!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: unspektakulaer, Snapuman, ElliotAlderson und 3 andere
Zurück
Oben