Test Aktuelle Benchmarks: DLSS 4 vs. 3 und FSR 4 vs. 3.1 in Stellar Blade und The Alters

Status
Für weitere Antworten geschlossen.
Northstar2710 schrieb:
warum behandelt ihr Upscaling nicht als das was es ist ein zusätzliches feature welches extra getestet wird. wie ihr das mit FG auch macht.
Weil es das eben schon länger nicht mehr ist, sondern ein Standardfeature auf welches hin auch neue Spiele entwickelt werden.

Testet man alles in nativ und macht dann eine Reihe mit DLSS für eine GPU, muss man ja wieder umrechnen um auf die FPS seiner eigenen GPU zu kommen, vorausgesetzt der Performancegewinn ist für alle Karten gleich groß, was auch nicht unbedingt gegeben ist
 
  • Gefällt mir
Reaktionen: Quidproquo77, rumpeLson, ElliotAlderson und 3 andere
Wir würden dann außerdem absichtlich auf einem Großteil der Grafikkarten eine schlechtere Qualität bei gleichzeitig schlechterer Performance rendern. Das wäre alles andere als zielführend.
 
  • Gefällt mir
Reaktionen: _Cassini_, Cruentatus, Fabian887 und 5 andere
Northstar2710 schrieb:
Und den großen balken vergleich macht ihr einfach mit Taa oder Tsr native.
Einfach weil ein Test mit Native nicht mehr dem entspricht, was Spieler tatsächlich nutzen. Und was die besten Ergebnisse liefert.

In so fern ist ein solcher Vergleich schlicht nicht aussagekräftig für die Mehrheit.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Grestorn schrieb:
Wenn vorher jemand auch nur die Idee geäußert hätte, man müsse FSR 3 mit DLSS 3 in unterschiedlichen Renderauflösungen antreten lassen, um den Qualitätsunterschied auszugleichen... Oh Mann, die Prügel und Unterstellungen der Käuflichkeit, die man dafür eingesteckt hätte...
Jetzt möchte ich mal eine Lanze für die Redax und die Lokalen Nvidia Fan Bois brechen. Sowohl die Redax hat genau das VOR FSR 4 bereits tatsächlich angedroht falls es mit FSR weiter so gehen würde und die Fanbois sowies.

Ja, selbst ein paar wenige AMD Fans hatten sich in dieser Richtung geäußert, zumindest bei besonders schlechte FSR Implementierungen.

Der Allgemeine Tenor war es aber sicher nicht, nicht mal bei den Nvidia Nutzern.
 
MaverickM schrieb:
Ich kann es nur öfter sagen: Ich halte den Unterschied zwischen allen vier Upscaling Methoden für verschwindend gering. Daher würde ich beim Beispiel Stellar Blade hier im Zweifelsfall selbst auf einer 9070XT lieber auf FSR 3.1 setzen, statt auf FSR4. Stellar Blade braucht es zwar nicht wirklich, aber lieber mehr FPS für einen verschwindend geringen Bildnachteil, der nur beim Pixel-Peeping auffällt.
Man könnte dann aber auch auf FSR 4 Balanced statt FSR 3.1 Quality setzen. Dann hat man noch mehr fps und evtl. trotzdem die leicht bessere Bildqualität.
 
  • Gefällt mir
Reaktionen: MaverickM und Apocalypse
Vitche schrieb:
Wir würden dann außerdem absichtlich auf einem Großteil der Grafikkarten eine schlechtere Qualität bei gleichzeitig schlechterer Performance rendern. Das wäre alles andere als zielführend.
Stimmt, aber Games auf Cinematic Settings laufen lassen, egal welche GPU ist so rein aus der Praxis ... auch komplett absurd. Und das wird ja auch gemacht, eben für die Vergleichbarkeit, die auch da nicht so richtig gegeben ist.

edit: Es sind halt alles Kompromisse.
 
  • Gefällt mir
Reaktionen: Casillas
clmns schrieb:
+1, könntet ihr evtl. noch RDNA 3 mit FSR 4 und 3.1 im Vergleich gegenüberstellen? Da dürfte das ja nochmal etwas außeinander gehen 🤔 (habe selbst eine 7900 XT und Frage mich, jetzt da FSR 4 ja auch möglich ist, wieviel Leistungsunterschied tatsächlich zur aktuellen Generation besteht...)
Auf meiner apu 760m kostet fsr4 soviel das es unbrauchbar ist ca 50%+
 
  • Gefällt mir
Reaktionen: clmns
Apocalypse schrieb:
Stimmt, aber Games auf Cinematic Settings laufen lassen, egal welche GPU ist so rein aus der Praxis ... auch komplett absurd. Und das wird ja auch gemacht, eben für die Vergleichbarkeit, die auch da nicht so richtig gegeben ist.
Es sollte immer einen Vergleich mit maximalen Einstellungen und einen mit optimierten Einstellungen, die auch Karten im 500-700€ Bereich ohne Einschränkungen wiedergeben können, geben.
 
Taxxor schrieb:
Weil es das eben schon länger nicht mehr ist
Falsch. Es ist immer noch ein feature. da man es ja genauso ausschalten wie auch wechseln kann. Nur wird es grundsätzlich genutzt um möglichst mehr fps zubekommen.

Man muss sich halt die frage stellen was man im test zeigen möchte. wenn man upscaling als „must have“ zeigen will, dann bitte auch jenes welches für die jeweilige gpu bestimmt ist. Denn das ist nunmal stand der Technik für die jeweilige Gpu. Da ist dann halt die Bildqualität anders. Das kann /muss man dann aber auch zeigen/mitteilen. Und nicht durch einstellungen versucht werden möglichst nah am besten upscaler zukommen.
Sicher kann man auf TAA stellen, aber das machen die wenigsten besonders weil FSR oder Xess schon vom spiel aus vorgewählt ist.

will ich die leistung unterschiedliches gpus in dem spiel zeigen sollten die bedingungen gleich sein, das bekommst du nur mit Dem gleichen upscaler oder TAA native hin. selbst wenn das keiner nutzt.

Die bildqualität als maßstab zunehmen ist einfach falsch da du die Bildqualität einfach nicht nachbilden kannst auf gpus verschiedener hersteller mit verschiedenen techniken.
Ich als Amd 7800xt besitzer habe keine ahnung von der Bildqualität rtx5070 . Mir ist es eher wichtig dieses spiel mit entsprechend vielen fps sauber spielen zukönnen, danach kommt die Bildqualität.

Bei Hardware test wird doch auch jedesmal darauf hingewiesen das man die Hersteller specs einhält für z.b. RAM obwohl hier die meissten leser sich schnelleren RAM einbauen.
 
  • Gefällt mir
Reaktionen: CadillacFan77
Apocalypse schrieb:
Stimmt, aber Games auf Cinematic Settings laufen lassen, egal welche GPU ist so rein aus der Praxis ... auch komplett absurd. Und das wird ja auch gemacht, eben für die Vergleichbarkeit, die auch da nicht so richtig gegeben ist.
Die ist ja durchaus gegeben, wenn wir eben das gleiche Bild erhalten.

Hinzu kommt, dass es heutzutage einfach nicht mehr so ist, dass man bei zu wenig Leistung unbedingt mit den Settings (oder Gott bewahre der Ausgabe-Auflösung) runtergeht (runtergehen sollte), sondern einfach das Upsampling offensiver einstellt. Empfehlenswert sind heutzutage eigentlich durch die Bank, von RX 9060 XT bis RTX 5090, ein UWQHD- oder UHD-Bildschirm mit Ultra-Settings. (Edit: Okay, nicht Ultra, wenn das Diminishing Returns sind, ich meinte einfach nur "so hoch dass es noch einen sichtbaren Mehrwert hat".)

Nur, dass man bei der 5090 eben DLAA nutzt, bei der 5080 DLSS Quality, bei der RX 9070 XT FSR 4 Balanced, bei der RX 9070 FSR 4 Performance und bei der RX 9060 XT dann schließlich FSR 4 Ultra Performance. Klar, das ist jetzt plakativ, aber schematisch kommt es in etwa hin. Grafikkarten-Klassen entscheiden immer weniger über die Zielauflösung, die Grafikeinstellungen (oder sogar das FPS-Niveau), sondern immer stärker nur noch über die Upsampling-Stufe.

Und da ist es definitiv so, dass die RX 9060 XT an einem UHD-Bildschirm mit FSR 4 Performance mehr Spaß macht als eine RX 7900 XTX an einem Full-HD-Panel (ich hoffe die Kombi hat so niemand zuhause ^^) mit "nativem" Rendering, d.h. mit TAA (ich hoffe niemand spielt mehr ohne temporales AA, außer natürlich bei Nintendo-Games, die das ja bis heute nicht vernünftig gebacken bekommen).

Um zurück zur Frage zu kommen: Klar, idealerweise hätte Wolfgang direkt mehrere Testreihen für verschiedene Settings, weil die Schere bei der Leistung zwischen 60er und 90er einfach riesig geworden ist. Und idealerweise macht er auch wieder Full HD im vollen Parcours. Und HDR-Vergleiche. Mit allen GPUs seit Pascal. Direkt auch noch unter Linux. Und dann noch mit verschiedenen Upsampling-Presets. Das multipliziert sich dann zu schlappen 4 Wochen Benchmark-Aufwand, die er dann für einen Technik-Test abarbeiten muss. Und in den Kommentarne zu diesem Test wird sich jemand beschweren, wieso seine GTX 980 nicht mit dabei ist, oder so ähnlich.

Kurzum: Zeit ist ein knappes Gut und Wolfgang investiert diese limitiere Zeit in die Tests immer so, dass der größte Mehrwert für unsere Leser (und nicht für SEO!) entsteht. Wenn ihr gerne mehr wollt, dann seid ihr herzlich eingeladen, diesen zusätzlichen Aufwand und die dafür nötigen Ressourcen per CB Pro zu finanzieren. ;D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: _Cassini_, Xes und Micha_80
NguyenV3 schrieb:
Das wäre Irreführung. Die Leute würden denken, dass der Output vergleichbar ist. Eine 7900XTX ist mit FSR3.1 nicht mit einer 9070XT FSR4 zu vergleichen, obwohl die FPS es andeuten
NguyenV3 schrieb:
Aus diesem Grund sollten RDNA3 Karten weiterhin mit Nativ-TAA rechnen. Es ist ansonsten einfach Verarsche, wenn suggeriert wird, man bekäme das gleiche geliefert. Mehr FPS auf Kosten der Qualität ist nämlich keine Kunst. Die Nutzung von "nur" FSR4 Quality ist schon ein Entgegenkommen.
Man sollte den Leuten aber schon genug Kompetenz zutrauen das sie wissen die Upscaler liefern unterschiedliche Bildqualität.
In Spielen wie Stellar Blade geht das ja noch weil man ordentlich Grund FPS hat aber in anderen Spielen die knapp an der Kotzgrenze laufen und zwingend einen Upscaler brauchen sieht man bei der Methode es läuft nicht ordentlich und muss an Hand der FSR4/DLSS Ergebnisse ähnlich schneller Karten abschätzen wie es denn laufen könnte.
Ich halte das für sehr ungünstig wenn ein Teil der Karten im Test mit Upscaler läuft und der Rest nativ, man guckt sich ja die Tests an um zu sehen wie schnell die Karte in Spiel XY läuft und nicht wie ist die Bildqualität.
 
Vitche schrieb:
Hinzu kommt, dass es heutzutage einfach nicht mehr so ist, dass man bei zu wenig Leistung unbedingt mit den Settings (oder Gott bewahre der Ausgabe-Auflösung) runtergeht (runtergehen sollte), sondern einfach das Upsampling offensiver einstellt. Empfehlenswert sind heutzutage eigentlich durch die Bank, von RX 9060 XT bis RTX 5090, ein UWQHD- oder UHD-Bildschirm mit Ultra-Settings.

Auch wenn es jetzt noch andere Stellschrauben gibt, an die man rankann, bevor man gleich alles auf low stellt: Ich halte das zumindest mit Ultra-Settings noch immer so. :D Denn bei diversen Settings (darunter Raytracing/Pathtracing) ist die Auflösung egal, es ist massiver Performanceeingriff, wenn das auf maximum ist. Und die höchsten Settings sind ähnlich wie der Energieverbrauch beim Overclocking: Irgendwann geht die Effizienz flöten und man ist über dem Sweetspot, weil minimale Bildverbesserungen überproportional Leistung kosten.

Und KCD2 neulich skalierte alleine über die Settings wieder wie KCD1 -- und zwar wie auf der Radeon hier. Das ist ein Extremfall. Das andere Extrem, das Settings fast gar nichts tun (Doom), ist aber genauso wenig die Norm. Der PC ist eine Plattform, die nach oben komplett offen ist. Hersteller müssen damit versuchen, sehr unterschiedliche Hardware zu skalieren. Das passiert nach wie vor auch über Detailsettings. Das zeigen sowohl die offiziellen Specs, die neben Frame-Targets und Auflösungen samt Upscalern auch Detailsettings angeben. Aber auch etwa Digital Foundrys Vergleiche zwischen PC und Konsole. Die Konsolen bieten zwar keine detaillierten Stellschrauben an, um sie 1:1 zu kopieren -- trotzdem sind Vergleiche anhand der Bilder natürlich möglich.

Hinzu kommt: KI-Upscaling ist je nach Titel und evtl. Pathtracing ja eh längst Pflichtübung statt primär Performance-Stellschraube. Das wird sich in den nächsten Jahren wohl eher noch verstärken, auch hinsichtlich der relativen Stagnation in Sachen Rohleistung.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
Die bildqualität als maßstab zunehmen ist einfach falsch da du die Bildqualität einfach nicht nachbilden kannst auf gpus verschiedener hersteller mit verschiedenen techniken.
Ich als Amd 7800xt besitzer habe keine ahnung von der Bildqualität rtx5070 . Mir ist es eher wichtig dieses spiel mit entsprechend vielen fps sauber spielen zukönnen, danach kommt die Bildqualität.
Aber genau das wäre ja für eine Kaufentscheidung wichtig wenn sich jemand zwischen ner 7800XT und ner 5070 entscheiden muss.
Wenn ihm die Balken sagen dass die 7800XT 10% schneller ist, wäre der Impuls, zu dieser zu greifen.
Dabei wird aber nicht betrachtet, dass die 5070 bei gleicher Bildqualität wie sie mit der 7800XT möglich ist, plötzlich 40% schneller ist.
(Natürlich reine Beispielzahlen)

Das ist doch keine Info, die irgendwo weiter hinten im Artikel als Zusatztest zu finden sein sollte.
Ergänzung ()

Northstar2710 schrieb:
will ich die leistung unterschiedliches gpus in dem spiel zeigen sollten die bedingungen gleich sein
Das was hinten raus kommt sollte möglichst gleich sein und das ist es bei FSR3 vs 4 halt nicht.
Und wenn es keinen Anlass gibt, vorhandenes FSR4 nicht zu nutzen, sollten die Karten die es können, auch damit getestet werden und dann müssen sich die älteren Karten eben mit diesem Output messen und der Performance die sie dafür benötigen.

Heute schlägt deswegen ne RTX2060S halt ne GTX1080Ti in der Praxis
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: _Cassini_, Quidproquo77, Xes und 5 andere
Northstar2710 schrieb:
Nur wird es grundsätzlich genutzt um möglichst mehr fps zubekommen.
Nein, um das möglichst beste Bild zu bekommen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Vitche schrieb:
Das wäre alles andere als zielführend.
was ist denn das ziel.

z.b. auf den test von Alters bezogen. Warum sollte ich mit einer 7800xt auf XESS setzen, So habt ihr sie getestet wenn ich mit FSR3.1 doch auch noch FG nutzen kann. Und der Unterschied von FSR3.1 zu XESS ist nicht so gross in dem spiel als das man das müsste. Also was will man in so einem spiele test zeigen.


FSR3
Alters FSR3.jpg


XESS
Alters XESS.jpg
 
MaverickM schrieb:
Ich kann es nur öfter sagen: Ich halte den Unterschied zwischen allen vier Upscaling Methoden für verschwindend gering. Daher würde ich beim Beispiel Stellar Blade hier im Zweifelsfall selbst auf einer 9070XT lieber auf FSR 3.1 setzen, statt auf FSR4. Stellar Blade braucht es zwar nicht wirklich, aber lieber mehr FPS für einen verschwindend geringen Bildnachteil, der nur beim Pixel-Peeping auffällt.

Also in der Demo war das Tag und Nacht fand ich. Auch ohne upscaling ist das aa viel besser.
 
Northstar2710 schrieb:
Warum sollte ich mit einer 7800xt auf XESS setzen, So habt ihr sie getestet wenn ich mit FSR3.1 doch auch noch FG nutzen kann.
Geht das mit XeSS nicht?
 
Kuestennebel79 schrieb:
Ich scheue mich immernoch die Nvidia App zu installieren, die letzten Male war es ein Bug-Fest. Hat sich das inzwischen verändert?
Keine Probleme mit der App - läuft sehr gut (Win 11 24H2).
 
  • Gefällt mir
Reaktionen: Kuestennebel79
MaverickM schrieb:
Das ist mir Scheißegal. Ich habe selber Augen und wie bereits mehrfach geschrieben, der Unterschied ist vorhanden, aber verschwindend gering. Für mich (!!!) nicht relevant.

Den Unterschied zwischen DLSS4 und FSR4 meint ihr??
Ist fast gar nicht mehr zu erkennen btw. PCGH hatte mal ein Video darüber gemacht also ein Blindtest und ja nahezu gleich gut.
 
xXDariusXx schrieb:
Den Unterschied zwischen DLSS4 und FSR4 meint ihr??
Zwischen DLSS3, FSR3, DLSS4 und FSR4 meint er
 
  • Gefällt mir
Reaktionen: Loopman
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben