Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

Taxxor schrieb:
Also wie oben schon erwähnt kann ich ne 5079 dann auf low settings testen und ne 9070 auf ultra und das wäre für dich dann ein nützlicher vergleich?
Natürlich gleiche In-Game Einstellungen, gleiche Auflösungsskalierung. So wie es Raff bei PCGH macht, weil es eben auch von der Community so gewünscht wird. Bildqualitätsvergleiche halt optional halt wenn. Das ist okay.
Ihr braucht mich da auch nicht versuchen zu bekehren, die einen favorisieren PCGHs Ansatz, andere CB. Es ist Platz für Beides.
 
  • Gefällt mir
Reaktionen: Hotzenplotz45, SweetOhm und Andre83hro
Blackfirehawk schrieb:
da hast du aber noch n guten kurs bekommen.. ich hätte das nicht mehr ausgegeben.. stand jetzt sind die dinger aufm gebrauchtmarkt tote backsteine
Tote Backsteine sind sie noch lange nicht 😂 nur wegen den Fake Frames etc.
 
  • Gefällt mir
Reaktionen: SweetOhm und Fyrex
No_Toxic_Gamer schrieb:
Natürlich gleiche In-Game Einstellungen, gleiche Auflösungsskalierung.
Und warum sollten die Ingame Settings gleich sein? Damit beide das gleiche Bild liefern damit man die Performance sinnvoll vergleichen können.
Das ist der einzige Grund


Seit einigen Jahren gibt es aber eben Ingame Settings, die nicht bei allen Karten das gleiche Bild liefern, daher darf man diese für einen Performancevergleich auch nicht einfach gleich einstellen.

Was gab es früher einen Aufschrei weil Hersteller A bei gewissen Techniken getrickst hat und bei AF16x schlechter aussah als Hersteller B, dafür aber weniger Rechenleistung brauchte.
Das war dann auch ein unfairer Performancevergleich
 
  • Gefällt mir
Reaktionen: Quidproquo77, serve1chilled, angband1 und 3 andere
Blackfirehawk schrieb:
der Backlash ist bei PCGH wesentlich höher weil die Seite, User und das Forum per se wesentlich AMD freundlicher aufgestellt ist.. dort ist die NATIV ÜBER ALLES Meinung wesentlich ausgeprägter als hier.. was aber auch damit zu tun hatm das man jahrelang die News so reißerisch geschrieben hat das upscaling mit NVIDIA = Böse = Fakeframes in verbindung gebracht wird.
Nah. Auf diese "weil AMD freundlicher" Einschätzung warum etwas gemacht wird, möchte ich mich nicht einlassen. Sonst fängt der nächste an und sagt CB ist Nvidia biased. Nein, nein. Das ist nicht zielführend.
 
  • Gefällt mir
Reaktionen: SweetOhm und N0Thing
Andre83hro schrieb:
Tote Backsteine sind sie noch lange nicht 😂 nur wegen den Fake Frames etc.
Hust.. danke für das wirklich Perfekte Beispiel was bei PCGH und deren User schief läuft
 
  • Gefällt mir
Reaktionen: Snapuman und DaHell63
@Taxxor wie gesagt du wirst mich nicht bekehren. Ich verfolge hier den Ansatz von PCGH, du CB. Kann ich mit leben und muss dich auch nicht zu was Anderem bewegen. Belassen wir es dabei.
 
  • Gefällt mir
Reaktionen: SweetOhm und Andre83hro
No_Toxic_Gamer schrieb:
Natürlich gleiche In-Game Einstellungen, gleiche Auflösungsskalierung
aber genau das ist ja halt nicht mehr die gleiche Bildqualiät.
das ist es nur wenn man ALLES nativ in TAA bencht ..

Gleiche ingame instellung bedeuted auch das ALLE den gleichen Upscaler nehmen müssen
was technisch nicht möglich ist weil jeder herrsteller seinen eigenen hat.

wenns danach geht muss alles mit TAA gebencht werden.. oder mit FSR3.0

Unterschiedliche upscaler sind NICHT gleiche ingame settings
 
  • Gefällt mir
Reaktionen: Fika und Snapuman
randomdude87 schrieb:
Bei schnellen Shootern oder fast Paced Games vllt, aber bei Spielen wie KCD2 oder Cyberpunk braucht es definitiv nicht mehr als 120 FPS, da kann man die Framerate cappen und DLSS Quality sieht immer besser aus als DLSS Balanced mit 240 FPS.
Ergänzung ()


Höhere Auflösung bringt nicht in jedem Game den gleichen optischen Mehrwert/Zugewinn an Bildqualität, deshalb habe ich geschrieben, je nach Game. Bei manchen Games hast du von WQHD auf 4K einen großen optischen Bildqualitätsgewinn und bei anderen Games ist der Zugewinn marginal, kaum auffallend.
Selten so viel Unsinn gelesen. 4K sieht selbst bei 25 Jahre alten Games besser aus als FHD oder 2K. Bei schnellen Shootern ist immer mehr FPS besser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
No_Toxic_Gamer schrieb:
@Taxxor wie gesagt du wirst mich nicht bekehren. Ich verfolge hier den Ansatz von PCGH, du CB. Kann ich mit leben und muss dich auch nicht zu was Anderem bewegen. Belassen wir es dabei.
Ich versuche dich gar nicht zu was anderem zu bewegen mich interessiert das WARUM und ich finde es halt völlig unvorstellbar dass man da keine plausiblen Gründe nennen kann.
Im Gegenteil, wenn da was plausibles kommen würde wäre ich gerne bereit meine eigene Meinung entsprechend anzupassen, es kommt halt nichts

Und wie @Blackfirehawk oben schon erwähnte, DLSS4 Quality vs FSR3 Quality wären ja auch nicht die gleichen Ingame Settings, die du gerne hättest. Dafür müsste man jede GPU auf FSR3 laufen lassen, oder alle mit TAA, was PCGH auch nicht tut
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snapuman, ElliotAlderson und N0Thing
Die sich jetzt aufregen weil ja die Bildqualität nicht zählt und wichtig ist, sind meist die selben die nach massig VRam schreien weil ja sonst die Bildqualität sinken könnte.
 
  • Gefällt mir
Reaktionen: Snapuman, ElliotAlderson und Taxxor
Andre83hro schrieb:
🥱🥱🥱 Bleib mal in deine Blase 😉
achso, das sich der Wiederverkaufs Wert einer fast 1000€ teuren 7900xtx dadurch ebenfalls im Keller befindet ist also eine Blase..

wer mit nur n bischen ahnung kauft die denn noch zu nem guten kurs um die 500+€ gebraucht
 
No_Toxic_Gamer schrieb:
Warum MUSS ich das erklären? Für mich sind die FPS wichtig die erreicht werden-gerenderte Frames. (nativ, Upscaling) Die reine Bildqualität ist für mich nicht der Hauptvergleichspunkt sondern eine separate Betrachtung wenn dann.
Beim Vergleich der verschiedenen Grafikkarten musst du halt anhand irgendeines Kriteriums normieren, um überhaupt etwas vergleichen zu können und eine sinnvolle Aussage aus einem Test ziehen zu können.

Auch VOR DLSS und Co war die Divise die Bildqualität zu normieren und dann zu schauen wie viele FPS jeweils erreicht werden. Das war zum Beispiel damals relevant, als ATI/AMD Karten die schlechtere Texturfilterung hatten.

Wenn wir Karten nun bei unterschiedlicher Bildqualität testen, haben solche Tests gar keine Aussagekraft mehr. Dann kann ich auch direkt eine 7600 XT in 720p mittleren Details in Counterstrike 2 mit einer 5090 in 4K und Pathtracing in Alan Wake 2 vergleichen und schauen wer schneller ist.

M.E. gibt es nur zwei sinnvolle Strategien:
Entweder die Bildqualität wird möglichst normiert und geschaut wie schnell eine Grafikkarte ist, oder wir normieren die Framerate und schauen welche Bildqualität hier jeweils erreicht werden kann. Alles andere ist leider ohne praktischen Mehrwert.

Alles was kein FSR4/DLSS4 unterstützt sollte dann vermutlich mit nativem TAA getestet werden und mit dem Hinweis, dass die Bildqualität trotzdem schlechter ist.
 
  • Gefällt mir
Reaktionen: Fika und ElliotAlderson
Apropo Bildqualität

FSR Q...FSR nativ...DLSS up....schnell erkennbar oder nicht? Was ist was?

1.png
2.png
3.png
 
  • Gefällt mir
Reaktionen: rumpeLson, Taxxor und Andre83hro
Schneller erkennbar wäre es in Videoform, gerade bei Vegetation, dann würde man vmtl DLSS4.5 UP direkt als das stabilste erkennen^^
 
  • Gefällt mir
Reaktionen: Quidproquo77, angband1, Snapuman und eine weitere Person

interessant.. vorallem was die beleuchtung angeht... wusste nicht das sie die reihenfolge bei der beleuchtung/tonemapping geändert haben...
mein Oled freut sich :)
 
Zuletzt bearbeitet:
Ich gebe einigen Rednern hier recht, dass man RDNA2/3 nicht mehr mit RDNA4 und RTX vergleichen kann, weil das jeweilig unterstützte Feature-Set zu erheblichen Unterschieden in der Bildqualität führt, wenn man es denn aktiviert, wofür es mehr als nur ein paar Argumente gibt.

Fps müssen unter gleichen Voraussetzungen verglichen werden! Man ist ja auch nicht früher hingegangen und hat bei der einen Karte 16x AF aktiviert und bei der anderen nur 4x AF.

ABER, und jetzt kommt der Knackpunkt:

Dieser Umstand führt dazu, dass man RDNA2/3 aus redaktioneller Sicht begraben und so tun müsste, als wären sie doch viel zu alt, um noch mitgetestet und verglichen zu werden. Dass das hierbei der Entwicklung geschuldet ist, ist klar, aber dass man es dabei belässt, wäre eine Entscheidung der Redaktion und hierfür gibt es eben eine Alternative; man testet weiterhin nativ - nicht als Ersatz - sondern als Zusatz.

Dass das wesentlich mehr Aufwand und Messpunkte bedeutet, ist auch klar, aber was ist der Preis dafür, wenn man das nicht macht? Zwei Jahre alte Karten wie Mumien behandeln? Dabei vermeintlich bezwecken, dass das den Hersteller zu irgendetwas anderem animiert?
 
  • Gefällt mir
Reaktionen: SweetOhm, Fika und Melmoth
Zurück
Oben