Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Benchmarks mit RTX 5000, RTX 3000, RX 9000 und RX 6000

yulawZ1: effecthasherei, morgen vergleichst du die bilder per static screen und stellst fest das du eigentlich 1440p spielst 😂
 
gedi schrieb:
FSR Redstone gibt es gerade mal ~2 Monate und alle meckern auf extrem hohem Niveau an AMD herum 
.
Gemeckert wird, weil fast ein ganzes Jahr dafĂŒr die Werbetrommel gerĂŒhrt wurde, geliefert hat man ein umbenanntes FSR4.
AMD hatte sich etwas unglĂŒcklich bei der ersten Vorstellung von Redstone ausgedrĂŒckt, meinte mit „einem verbesserten FSR Super Resolution“ schlicht den damals noch anstehenden Wechsel von FSR 4.0.1 auf FSR 4.0.2, das mit dem FSR-4-SDK aber bereits im August erschienen ist. Der neue Name bedeutet, dass Spieler in Zukunft in Spielen mit Redstone-SDK als Basis nicht mehr direkt sehen, welchen FSR-Upscaling-Algorithmus sie nutzen – sie nutzen immer „den besten“, was aber nur auf RX 9000 das aktuelle FSR 4 bedeutet.
FSR Upscaling im MenĂŒ bedeutet
  • FSR Upscaling mit AI auf RDNA 4 („FSR 4.x“)
  • FSR Upscaling Analytisch RDNA 3, 2 & 1 („FSR 3.1“)
https://www.computerbase.de/news/ga...-fsr-upscaling-frame-generation-und-co.95398/

Wenn man den Mund vollnimmt dann sollte man auch liefern, stattdessen ist FSR4 unverĂ€ndert, FSR3 wird jetzt hinter einem anderen Namen versteckt und Besitzer Ă€lterer AMD Karten völlig im Regen gelassen. WĂ€hrenddessen hat Nvidia einfach stillschweigend DLSS4.5 geliefert, fĂŒr alle Karten bis zur RTX2000.
 
  • GefĂ€llt mir
Reaktionen: Samuelz, NguyenV3 und Quidproquo77
gedi schrieb:
NV soll erst mal anfangen wieder gescheite Treiber zu liefern

Was sind denn da die aktuellen Probleme? Anfang 2025 war das noch ziemlich mieß, aber aktuell ist mir nur die InkompatibilitĂ€t von Smooth Motion mit DXVK x64 bekannt.
 
Nihil Baxxter schrieb:
Ja, was implizieren wĂŒrde, dass Nvidia-KĂ€ufer schlau und ehrlich sind, AMD-User dumm und verlogen.
Oder, dass Radeon Nutzer nicht so viel Wert auf Upscaling legen und die Abstimmung fĂŒr FSR ein besseres GefĂŒhl vermittelt.
Nihil Baxxter schrieb:
Oder aber, eine gewisse Anzahl von Usern jeder Marke ist voreingenommen, die Nvidia-Fraktion liegt dabei zufÀllig richtig.
Glaube ich weniger, da GeForce Nutzer sich darĂŒber bewusst sind und wahrscheinlich auch deshalb eine GeForce gekauft haben.
Nihil Baxxter schrieb:
Was dort steht ist: "Was ist dein Favorit", nicht "Was sieht am besten aus".
Und der ganze Artikel dreht sich um BildqualitÀt und nicht um IHV Bingo.
Nihil Baxxter schrieb:
Das bedeutet aber nicht, dass Nvidia User nicht auch "blind" abgestimmt haben könnten.
Der Vorwurf "blind" abzustimmen ergibt nur dann einen Sinn, wenn ich fĂŒr das "falsche" Ergebnis abstimme, denn ansonsten habe ich ja richtig abgestimmt.
Nihil Baxxter schrieb:
Komm schon. Du bist doch sonst auch immer so sehr um NeutralitĂ€t bemĂŒht ;)
Ich finde deine Logik an der Stelle widersinnig. Den Vorwurf der Voreingenommenheit kann ich nur dann tĂ€tigen, wenn ich fĂŒr das klar schlechtere Bild stimme.
 
Lamaan schrieb:
kostet eine 5060ti nicht so viel wie eine 9070xt ?
Die wÀre dann auf jeden Fall eine Klasse schneller
Ja, aber wenn man QualitĂ€t haben möchte, greift man zu NVIDIA, siehe DLSS. AMD, Redstone ist nicht das, was sie versprochen haben :). Irgendwie kommt mir das so vor: NVIDIA macht fĂŒr die Großen und AMD macht alles schlechter fĂŒr einen kleinen geld beutel haben und naja niocht auf qualittĂ€t achten
 
quakegott schrieb:
Die Spiele sehen teilweise schlechter aus als vor zehn Jahren und brauchen dafĂŒr die vierfache Leistung...
Die einschlĂ€gigen Channels picken sich gerne einzelne Punkte heraus die sie ĂŒberbetonen und die mal in dem ein oder anderen Spiel besserer aussahen als in dem ein oder anderen Spiel heute.

Darauf wird dann ein "kÀmpft gegen die verlogene Industrie" Narrativ gebildet und fern jeder ObjektivitÀt totgeritten.
quakegott schrieb:
Und hier wird einfach gefeiert dass die gottlos schlechte Optimierung der Spiele mit grĂ¶ĂŸeren Chips und somit auch höherem Energiebedarf ausgeglichen wird.
Die kĂŒhne Behauptung "schlecht optimiert" greift nahezu immer, da die User in der heutigen Erregungskultur irgendetwas zum Schimpfen brauchen, obwohl es nie besser war als heute. Als wenn es das frĂŒher nicht gegeben hĂ€tte. Grafikkarten halten heute viel lĂ€nger und fast jedes Spiel lĂ€sst sich mit 10 Jahre alten Karten noch halbwegs vernĂŒnftig in Full HD spielen. Das ging frĂŒher nicht.
quakegott schrieb:
Nvidia hat mit Raytracing ein Problem geschaffen(...)
Nein, das Problem ist, dass es mit Rasterisierung nicht mehr effizient weitergeht. Weder was den Entwicklungsprozess betrifft noch was die Effizienz ab einer bestimmten KomplexitÀt angeht.
quakegott schrieb:
und mit DLSS direkt die Lösung im GepÀck.
4xSSAA QualitÀt mit weniger als der HÀlfte des Rechenaufwands, ja das ist top.
quakegott schrieb:
Einen optischen Mehrwert hat man dadurch gar nicht,
Doch, der ist gigantisch zu frĂŒheren Lösungen in Relation zu den Leistungskosten.
quakegott schrieb:
da es mit ein bisschen Hingabe und Know-How durchaus möglich ist eine natĂŒrliche und eindrucksvolle Beleuchtung auch ohne Raytracing zu schaffen.
Du vermengst hier untersch. Dinge.
quakegott schrieb:
Aber EPIC hat das ja alles in der Unreal Engine schon vorbereitet...
Und frisst genausoviel Leistung wie HW-RT.
Andre83hro schrieb:
@xexex Komme aus Schmunzeln nicht raus ....;-)
War seine ErklÀrung denn falsch? Oder warum schmunzelst du? Die Reaktionen im Launchtest waren verhalten.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Grestorn
DLSS scheint ja bei COD7 kaputt zu sein... die Performance liegt unter nativ.
 
Ranock321 schrieb:
Das ist sowas von verwirrten was Nvidia da abliefert.
Preset xyz blah, warum heißt das nicht Preset... DLSS4 P, DLSS4 Q, DLSS4.5 P usw...
Oder ist so gemacht, das man vorab erstmal eine KI fragen muss was das alles so bedeute, also ein win win fĂŒr Nvidia. :freak:
Und jedes mal, wenn du eine KI fragst, werden die Grafikkarten etwas teurer ;)

Nachdem ich jetzt die ersten drei Seiten gelesen habe: dafĂŒr, dass der Großteil der NV KĂ€ufer zu den noobs zahlen dĂŒrften (ich kaufe NV, weil mein Streamer die auch benutzt oder NV beschte) haben die Profis hier ganz schön viele Fragen bezĂŒglich der presets.
 
mcbloch schrieb:
Und was haben euch eigentlich die RTX 4000er Karten angetan ??
Eure Tests werden immer unbrauchbarer.
Die 40er Verhalten sich (im Gegensatz zu den 30er) wie die 50er. Ziehst einfach den Unterschied zwischen den beiden ab und hast deine 40er
 
  • GefĂ€llt mir
Reaktionen: Fika
Habe gestern nochmal KCD2 mit dem M Preset in 4K und alle regler rechts gespielt.

Das Bild ist sehr gut.
Allerdings neigt das Spiel immer noch dazu unter 60fps zu fallen - obwohl die Karte nicht voll unter last ist.
 
Quidproquo77 schrieb:
Den Vorwurf der Voreingenommenheit kann ich nur dann tĂ€tigen, wenn ich fĂŒr das klar schlechtere Bild stimme.
Dein Standpunkt lĂ€sst sich also wie folgt zusammenfassen: Da das VerhĂ€ltnis der Umfrageergebnisse von 40/60 ungefĂ€hr der Verteilung von AMD/NV Nutzern hier im Forum entspricht, kann davon ausgegangen werden, dass Nividia-Nutzer eher fundiert und objektiv abstimmen, wĂ€hrend AMD-User blind fĂŒr ihre Marke einstehen.
 
  • GefĂ€llt mir
Reaktionen: Andre83hro
@Wolfgang , herzlichen Dank fĂŒr den ausfĂŒhrlichen Test! Toll wĂ€ren jetzt auch Vergleiche untet Linux mit Mesa/DXVK und Proton. Freue mich schon drauf!
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Grestorn
minimii schrieb:
Habe gestern nochmal KCD2 mit dem M Preset in 4K und alle regler rechts gespielt.

Das Bild ist sehr gut.
Allerdings neigt das Spiel immer noch dazu unter 60fps zu fallen - obwohl die Karte nicht voll unter last ist.
Das ist dann ein CPU Limit.

Ich kriege bei KCD2 immer zwischen 80 und 110 fps - und das ganz egal, ob ich Quality, Balanced oder Performance einstelle. Ich scheine quasi permanent im CPU Limit zu sein.
 
Bccc1 schrieb:
Weil es das persistence blur problem von sample-and-hold Bildschirmen reduziert. Die Alternative wÀre backlight strobing
Da gibt es ja die Möglichkeit die Halbwertszeit der Pixel einzustellen.
Backlight Strobing reduziert die Helligkeit und ermĂŒdet die Augen. Außerdem benötigt man dann die halbe Reaktionszeit des Monitors, sonst verdoppelt sich die Pixelreaktionszeit
 
minimii schrieb:
Mit nem 7800x3d?

Pauschal wundert mich das dann doch ;)
Aber theoretisch möglich.
Kannst es ja selber testen. Stell auf "Performance" und wenn sich die Framerate nicht massiv Àndert, dann bist Du auch im CPU Limit.
 
John_Wick89 schrieb:
Irgendwie kommt mir das so vor: NVIDIA macht fĂŒr die Großen und AMD macht alles schlechter fĂŒr einen kleinen geld beutel haben und naja niocht auf qualittĂ€t achten
AMD macht einfach das Minimalprinzip.
Aber das ist auch völlig ok, die Preise passen ja dazu. Man bekommt weniger, zahlt aber auch weniger, ist doch fair.

Man muss aber auch sagen FSR4 im Quality Mode sieht echt gut aus, FSR3 war ja in der Regel wegen flimmern fast nicht nutzbar.

Und man muss auch auf dem Teppich bleiben, wer hat bitte eine 9070/9070xt fĂŒr UHD gekauft und nutzt den Performance Mode.
Soweit ich das sehe spielen die meisten damit auf WQHD/UWQHD und dann wahrscheinlich mit Quality Mode und da sind die Details ja alle da.

Irgendwann wird es da schon noch ein Update geben wo man dann auch höher gehen kann ohne das es aussieht wie FHD, es ist so erstmal ein Riesen Schritt von FSR3 und macht Super Sampling auf AMD Karten nutzbar, das ist Top!
 
  • GefĂ€llt mir
Reaktionen: Andre83hro, Nihil Baxxter und John_Wick89
Können wir den kleinkrieg nicht mal beiseite lassen?
Im Nachhinein hÀtte (hÀtte Fahrradkette) ich auch lieber meine 4080 behalten, statt auf 7900xt und danach auf 9070xt zu wechseln. Damals wusste keiner dass RDNA3 kein FSR4 bekommen wird, bzw letztes Jahr das sich die Redstone Entwicklung auch arg zieht. Videogames sind allerdings auch nicht mein Haupthobby, deshalb triggert mich das nicht so arg wie manch anderen vielleicht.

Was interessanter finde, wenn man heute kauft, was hat den besseren bang for buck? Weil das 5080 und 5090 wozu AMD keine Gegenspieler hat, gewinnen ist klar, kostet aber auch entsprechend. Also bspw

DLSS M PerformancevsFSR Quality / Balanced?bspw getestet in
5060 8GB
330€
9060xt 8GB
320€
FHD? und WQHD
5070 12GB
620€
9070 16GB
610€
WQHD und UHD

FPS/€ bei gleichwertiger BildqualitĂ€t, wird der geringere VRAM in UHD vielleicht zum Problem oder nicht? Vermutlich nicht, weil man aggressivers upscaling nutzen kann. Klar die große Diskussion, wie stark gewichtet und ĂŒberlegen ist DLSS. Betrachtet im Zusammenhang mit 60/120/240/360/480 Hz Monitore, kommt man eventuell auch auf andere Empfehlungen?


Ganz grundsĂ€tzlich finde ich cool, dass Computerbase die Mittelklasse (? 70TIvs70XT immerhin auch schon 700-1000€) mehr im Fokus hat. Das darf auch gerne weiter behalten werden, auch wenn AMD mal wieder einen x090 Gegenspieler haben sollte. Diese extrem teure Hardware (weit) jenseits von 1000€, spricht das die Masse an Leute an?
 
  • GefĂ€llt mir
Reaktionen: Andre83hro
Ja mit Redstone blieb upscaling, bis auf die Umbenennung, bisher unverÀndert. Neu mit Redstone ist ML based frame generation und Ray Regeneration.
 
Finde DLSS 4.5 irgendwie in jeder Hinsicht enttĂ€uschend bisher... Zudem muss man wissen, welche DLSS Einstellung man fĂŒr welches Preset verwendet. Viel zu Anwenderunfreundlich...
 
ZurĂŒck
Oben