Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Benchmarks mit RTX 5000, RTX 3000, RX 9000 und RX 6000
Gemeckert wird, weil fast ein ganzes Jahr dafĂŒr die Werbetrommel gerĂŒhrt wurde, geliefert hat man ein umbenanntes FSR4.gedi schrieb:FSR Redstone gibt es gerade mal ~2 Monate und alle meckern auf extrem hohem Niveau an AMD herum âŠ.
AMD hatte sich etwas unglĂŒcklich bei der ersten Vorstellung von Redstone ausgedrĂŒckt, meinte mit âeinem verbesserten FSR Super Resolutionâ schlicht den damals noch anstehenden Wechsel von FSR 4.0.1 auf FSR 4.0.2, das mit dem FSR-4-SDK aber bereits im August erschienen ist. Der neue Name bedeutet, dass Spieler in Zukunft in Spielen mit Redstone-SDK als Basis nicht mehr direkt sehen, welchen FSR-Upscaling-Algorithmus sie nutzen â sie nutzen immer âden bestenâ, was aber nur auf RX 9000 das aktuelle FSR 4 bedeutet.
https://www.computerbase.de/news/ga...-fsr-upscaling-frame-generation-und-co.95398/FSR Upscaling im MenĂŒ bedeutet
- FSR Upscaling mit AI auf RDNA 4 (âFSR 4.xâ)
- FSR Upscaling Analytisch RDNA 3, 2 & 1 (âFSR 3.1â)
Wenn man den Mund vollnimmt dann sollte man auch liefern, stattdessen ist FSR4 unverĂ€ndert, FSR3 wird jetzt hinter einem anderen Namen versteckt und Besitzer Ă€lterer AMD Karten völlig im Regen gelassen. WĂ€hrenddessen hat Nvidia einfach stillschweigend DLSS4.5 geliefert, fĂŒr alle Karten bis zur RTX2000.
Was sind denn da die aktuellen Probleme? Anfang 2025 war das noch ziemlich mieĂ, aber aktuell ist mir nur die InkompatibilitĂ€t von Smooth Motion mit DXVK x64 bekannt.gedi schrieb:NV soll erst mal anfangen wieder gescheite Treiber zu liefernâŠ
- Registriert
- Okt. 2023
- BeitrÀge
- 4.556
Oder, dass Radeon Nutzer nicht so viel Wert auf Upscaling legen und die Abstimmung fĂŒr FSR ein besseres GefĂŒhl vermittelt.Nihil Baxxter schrieb:Ja, was implizieren wĂŒrde, dass Nvidia-KĂ€ufer schlau und ehrlich sind, AMD-User dumm und verlogen.
Glaube ich weniger, da GeForce Nutzer sich darĂŒber bewusst sind und wahrscheinlich auch deshalb eine GeForce gekauft haben.Nihil Baxxter schrieb:Oder aber, eine gewisse Anzahl von Usern jeder Marke ist voreingenommen, die Nvidia-Fraktion liegt dabei zufĂ€llig richtig.
Und der ganze Artikel dreht sich um BildqualitÀt und nicht um IHV Bingo.Nihil Baxxter schrieb:Was dort steht ist: "Was ist dein Favorit", nicht "Was sieht am besten aus".
Der Vorwurf "blind" abzustimmen ergibt nur dann einen Sinn, wenn ich fĂŒr das "falsche" Ergebnis abstimme, denn ansonsten habe ich ja richtig abgestimmt.Nihil Baxxter schrieb:Das bedeutet aber nicht, dass Nvidia User nicht auch "blind" abgestimmt haben könnten.
Ich finde deine Logik an der Stelle widersinnig. Den Vorwurf der Voreingenommenheit kann ich nur dann tĂ€tigen, wenn ich fĂŒr das klar schlechtere Bild stimme.Nihil Baxxter schrieb:Komm schon. Du bist doch sonst auch immer so sehr um NeutralitĂ€t bemĂŒht![]()
John_Wick89
Cadet 2nd Year
- Registriert
- Nov. 2025
- BeitrÀge
- 19
Ja, aber wenn man QualitÀt haben möchte, greift man zu NVIDIA, siehe DLSS. AMD, Redstone ist nicht das, was sie versprochen habenLamaan schrieb:kostet eine 5060ti nicht so viel wie eine 9070xt ?
Die wÀre dann auf jeden Fall eine Klasse schneller
- Registriert
- Okt. 2023
- BeitrÀge
- 4.556
Die einschlĂ€gigen Channels picken sich gerne einzelne Punkte heraus die sie ĂŒberbetonen und die mal in dem ein oder anderen Spiel besserer aussahen als in dem ein oder anderen Spiel heute.quakegott schrieb:Die Spiele sehen teilweise schlechter aus als vor zehn Jahren und brauchen dafĂŒr die vierfache Leistung...
Darauf wird dann ein "kÀmpft gegen die verlogene Industrie" Narrativ gebildet und fern jeder ObjektivitÀt totgeritten.
Die kĂŒhne Behauptung "schlecht optimiert" greift nahezu immer, da die User in der heutigen Erregungskultur irgendetwas zum Schimpfen brauchen, obwohl es nie besser war als heute. Als wenn es das frĂŒher nicht gegeben hĂ€tte. Grafikkarten halten heute viel lĂ€nger und fast jedes Spiel lĂ€sst sich mit 10 Jahre alten Karten noch halbwegs vernĂŒnftig in Full HD spielen. Das ging frĂŒher nicht.quakegott schrieb:Und hier wird einfach gefeiert dass die gottlos schlechte Optimierung der Spiele mit gröĂeren Chips und somit auch höherem Energiebedarf ausgeglichen wird.
Nein, das Problem ist, dass es mit Rasterisierung nicht mehr effizient weitergeht. Weder was den Entwicklungsprozess betrifft noch was die Effizienz ab einer bestimmten KomplexitÀt angeht.quakegott schrieb:Nvidia hat mit Raytracing ein Problem geschaffen(...)
4xSSAA QualitÀt mit weniger als der HÀlfte des Rechenaufwands, ja das ist top.quakegott schrieb:und mit DLSS direkt die Lösung im GepÀck.
Doch, der ist gigantisch zu frĂŒheren Lösungen in Relation zu den Leistungskosten.quakegott schrieb:Einen optischen Mehrwert hat man dadurch gar nicht,
Du vermengst hier untersch. Dinge.quakegott schrieb:da es mit ein bisschen Hingabe und Know-How durchaus möglich ist eine natĂŒrliche und eindrucksvolle Beleuchtung auch ohne Raytracing zu schaffen.
Und frisst genausoviel Leistung wie HW-RT.quakegott schrieb:Aber EPIC hat das ja alles in der Unreal Engine schon vorbereitet...
War seine ErklÀrung denn falsch? Oder warum schmunzelst du? Die Reaktionen im Launchtest waren verhalten.Andre83hro schrieb:@xexex Komme aus Schmunzeln nicht raus ....;-)
Zuletzt bearbeitet:
Und jedes mal, wenn du eine KI fragst, werden die Grafikkarten etwas teurerRanock321 schrieb:Das ist sowas von verwirrten was Nvidia da abliefert.
Preset xyz blah, warum heiĂt das nicht Preset... DLSS4 P, DLSS4 Q, DLSS4.5 P usw...
Oder ist so gemacht, das man vorab erstmal eine KI fragen muss was das alles so bedeute, also ein win win fĂŒr Nvidia.![]()
Nachdem ich jetzt die ersten drei Seiten gelesen habe: dafĂŒr, dass der GroĂteil der NV KĂ€ufer zu den noobs zahlen dĂŒrften (ich kaufe NV, weil mein Streamer die auch benutzt oder NV beschte) haben die Profis hier ganz schön viele Fragen bezĂŒglich der presets.
Die 40er Verhalten sich (im Gegensatz zu den 30er) wie die 50er. Ziehst einfach den Unterschied zwischen den beiden ab und hast deine 40ermcbloch schrieb:Und was haben euch eigentlich die RTX 4000er Karten angetan ??
Eure Tests werden immer unbrauchbarer.
- Registriert
- Dez. 2020
- BeitrÀge
- 6.402
Habe gestern nochmal KCD2 mit dem M Preset in 4K und alle regler rechts gespielt.
Das Bild ist sehr gut.
Allerdings neigt das Spiel immer noch dazu unter 60fps zu fallen - obwohl die Karte nicht voll unter last ist.
Das Bild ist sehr gut.
Allerdings neigt das Spiel immer noch dazu unter 60fps zu fallen - obwohl die Karte nicht voll unter last ist.
- Registriert
- Mai 2020
- BeitrÀge
- 925
Dein Standpunkt lĂ€sst sich also wie folgt zusammenfassen: Da das VerhĂ€ltnis der Umfrageergebnisse von 40/60 ungefĂ€hr der Verteilung von AMD/NV Nutzern hier im Forum entspricht, kann davon ausgegangen werden, dass Nividia-Nutzer eher fundiert und objektiv abstimmen, wĂ€hrend AMD-User blind fĂŒr ihre Marke einstehen.Quidproquo77 schrieb:Den Vorwurf der Voreingenommenheit kann ich nur dann tĂ€tigen, wenn ich fĂŒr das klar schlechtere Bild stimme.
NDschambar
Lt. Junior Grade
- Registriert
- Aug. 2017
- BeitrÀge
- 412
Das ist dann ein CPU Limit.minimii schrieb:Habe gestern nochmal KCD2 mit dem M Preset in 4K und alle regler rechts gespielt.
Das Bild ist sehr gut.
Allerdings neigt das Spiel immer noch dazu unter 60fps zu fallen - obwohl die Karte nicht voll unter last ist.
Ich kriege bei KCD2 immer zwischen 80 und 110 fps - und das ganz egal, ob ich Quality, Balanced oder Performance einstelle. Ich scheine quasi permanent im CPU Limit zu sein.
- Registriert
- Dez. 2020
- BeitrÀge
- 6.402
Mit nem 7800x3d?Grestorn schrieb:Das ist dann ein CPU Limit.
Pauschal wundert mich das dann doch
Aber theoretisch möglich.
ErnstHaft99
Lieutenant
- Registriert
- MĂ€rz 2025
- BeitrÀge
- 772
Da gibt es ja die Möglichkeit die Halbwertszeit der Pixel einzustellen.Bccc1 schrieb:Weil es das persistence blur problem von sample-and-hold Bildschirmen reduziert. Die Alternative wÀre backlight strobing
Backlight Strobing reduziert die Helligkeit und ermĂŒdet die Augen. AuĂerdem benötigt man dann die halbe Reaktionszeit des Monitors, sonst verdoppelt sich die Pixelreaktionszeit
Kannst es ja selber testen. Stell auf "Performance" und wenn sich die Framerate nicht massiv Àndert, dann bist Du auch im CPU Limit.minimii schrieb:Mit nem 7800x3d?
Pauschal wundert mich das dann doch
Aber theoretisch möglich.
AMD macht einfach das Minimalprinzip.John_Wick89 schrieb:Irgendwie kommt mir das so vor: NVIDIA macht fĂŒr die GroĂen und AMD macht alles schlechter fĂŒr einen kleinen geld beutel haben und naja niocht auf qualittĂ€t achten
Aber das ist auch völlig ok, die Preise passen ja dazu. Man bekommt weniger, zahlt aber auch weniger, ist doch fair.
Man muss aber auch sagen FSR4 im Quality Mode sieht echt gut aus, FSR3 war ja in der Regel wegen flimmern fast nicht nutzbar.
Und man muss auch auf dem Teppich bleiben, wer hat bitte eine 9070/9070xt fĂŒr UHD gekauft und nutzt den Performance Mode.
Soweit ich das sehe spielen die meisten damit auf WQHD/UWQHD und dann wahrscheinlich mit Quality Mode und da sind die Details ja alle da.
Irgendwann wird es da schon noch ein Update geben wo man dann auch höher gehen kann ohne das es aussieht wie FHD, es ist so erstmal ein Riesen Schritt von FSR3 und macht Super Sampling auf AMD Karten nutzbar, das ist Top!
Fika
Lt. Commander
- Registriert
- Okt. 2014
- BeitrÀge
- 1.159
Können wir den kleinkrieg nicht mal beiseite lassen?
Im Nachhinein hÀtte (hÀtte Fahrradkette) ich auch lieber meine 4080 behalten, statt auf 7900xt und danach auf 9070xt zu wechseln. Damals wusste keiner dass RDNA3 kein FSR4 bekommen wird, bzw letztes Jahr das sich die Redstone Entwicklung auch arg zieht. Videogames sind allerdings auch nicht mein Haupthobby, deshalb triggert mich das nicht so arg wie manch anderen vielleicht.
Was interessanter finde, wenn man heute kauft, was hat den besseren bang for buck? Weil das 5080 und 5090 wozu AMD keine Gegenspieler hat, gewinnen ist klar, kostet aber auch entsprechend. Also bspw
FPS/⏠bei gleichwertiger BildqualitĂ€t, wird der geringere VRAM in UHD vielleicht zum Problem oder nicht? Vermutlich nicht, weil man aggressivers upscaling nutzen kann. Klar die groĂe Diskussion, wie stark gewichtet und ĂŒberlegen ist DLSS. Betrachtet im Zusammenhang mit 60/120/240/360/480 Hz Monitore, kommt man eventuell auch auf andere Empfehlungen?
Ganz grundsĂ€tzlich finde ich cool, dass Computerbase die Mittelklasse (? 70TIvs70XT immerhin auch schon 700-1000âŹ) mehr im Fokus hat. Das darf auch gerne weiter behalten werden, auch wenn AMD mal wieder einen x090 Gegenspieler haben sollte. Diese extrem teure Hardware (weit) jenseits von 1000âŹ, spricht das die Masse an Leute an?
Im Nachhinein hÀtte (hÀtte Fahrradkette) ich auch lieber meine 4080 behalten, statt auf 7900xt und danach auf 9070xt zu wechseln. Damals wusste keiner dass RDNA3 kein FSR4 bekommen wird, bzw letztes Jahr das sich die Redstone Entwicklung auch arg zieht. Videogames sind allerdings auch nicht mein Haupthobby, deshalb triggert mich das nicht so arg wie manch anderen vielleicht.
Was interessanter finde, wenn man heute kauft, was hat den besseren bang for buck? Weil das 5080 und 5090 wozu AMD keine Gegenspieler hat, gewinnen ist klar, kostet aber auch entsprechend. Also bspw
| DLSS M Performance | vs | FSR Quality / Balanced? | bspw getestet in |
| 5060 8GB 330⏠| 9060xt 8GB 320⏠| FHD? und WQHD | |
| 5070 12GB 620⏠| 9070 16GB 610⏠| WQHD und UHD | |
FPS/⏠bei gleichwertiger BildqualitĂ€t, wird der geringere VRAM in UHD vielleicht zum Problem oder nicht? Vermutlich nicht, weil man aggressivers upscaling nutzen kann. Klar die groĂe Diskussion, wie stark gewichtet und ĂŒberlegen ist DLSS. Betrachtet im Zusammenhang mit 60/120/240/360/480 Hz Monitore, kommt man eventuell auch auf andere Empfehlungen?
Ganz grundsĂ€tzlich finde ich cool, dass Computerbase die Mittelklasse (? 70TIvs70XT immerhin auch schon 700-1000âŹ) mehr im Fokus hat. Das darf auch gerne weiter behalten werden, auch wenn AMD mal wieder einen x090 Gegenspieler haben sollte. Diese extrem teure Hardware (weit) jenseits von 1000âŹ, spricht das die Masse an Leute an?
Ăhnliche Themen
- Antworten
- 518
- Aufrufe
- 28.781
- Antworten
- 733
- Aufrufe
- 47.376