Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

Brrr schrieb:
Ich kenne das Spiel jetzt nicht und habe rein aufgrund der Screenshots bewertet. Aber für mich persönlich ist es genau andersrum. M sieht da gut aus und alles andere ist Matschig.
Jedes Objekt mit starkem Kontrast beginnt bei M bereits auszusehen wie eine Schablone. Das liegt an der Diskrepanz von Kantenschärfe zu Flächendetails. Die Kanten sind scharf, aber die Flächen sind weiterhin unscharf. Ich reagiere halt extrem empfindlich auf den Effekt, wo überschärfte Kanten dafür sorgen, dass Objekte beginnen sich vom Hintergrund zu lösen.
 
Schalt erstmal das ingame sharpening aus bevor du den Vergleich machst..

Möchte nicht wissen wie viele das hier unbewusst eingeschaltet haben und es auf 50+% steht (meist Default)


Und laut Hardware unboxed ändert sich auch das tonemapping von Lichtquellen mit Dlss4.5

Vorher wurde erst tonemapping gemacht und dann geupscalet... Mit DLSE4.5 wird erst geupscalet und dann tonemapping betrieben wodurch Beleuchtung und HDR massiv profitieren
 
Modell M sieht in Performance wirklich gut aus, schon krass, wie weit die Entwicklung gekommen ist.
Soweit ich es sehe, besteht aber immer noch das Problem mit dem Flimmern bei RT-Reflexion in der Unreal Engine. Da habe ich mir eine deutliche Verbesserung erhofft.

No_Toxic_Gamer schrieb:
Ich persönlich möchte FPS vergleichen nicht Bildqualität das ist korrekt. Weshalb ich PCGH nutze auch korrekt.
Der Vergleich der FPS ist aber nur sinnvoll, wenn man mit der gleichen Bildqualität vergleicht. Das war die letzten Jahrzehnte üblich, bzw. der angestrebte Standard. Dies ist aber nicht mehr der Fall, wenn unterschiedliche Upscaler zum Einsatz kommen.

unspektakulaer schrieb:
Wenn es hier keine Hardwaretests, also so richtig, ohne 27,5x MultiMultiFG mehr gibt, dann macht aber auch hier lesen keinen Sinn mehr. Ich bin hier weil ich wissen will was die Hardeware leistet, nicht was ein Algorithmus daraus schätzt.
Bei den Hardware-Tests wird bei CB mit der gleichen Auflösung vergleichen. Da hat der Grafikkartenhersteller mit dem aufwändigerem Algorithmus einen Nachteil, aber das war bisher noch relativ verschmerzbar.

Spieletests werden bei CB so getestet, wie es für die meisten Spieler erstrebenswert ist: Möglichkeit gute Bildqualität bei erreichbaren FPS. Dass Leute hier die Spieletests mit Hardware-Tests verwechseln, sieht man in den Kommentaren aber leider immer wieder.
Taxxor schrieb:
Was gab es früher einen Aufschrei weil Hersteller A bei gewissen Techniken getrickst hat und bei AF16x schlechter aussah als Hersteller B, dafür aber weniger Rechenleistung brauchte.
Das war dann auch ein unfairer Performancevergleich
Wenn ich daran denke, dass ich damals extra auf eine ATI gewechselt bin, weil mich das Flimmern der GeForce selbst mit "HQ"-AF so genervt hat. 😅
Da wirkt die ganze Diskussion über Upscaler im Vergleich so müßig, wenn Leute lieber mit Flimmern oder Unschärfe und Flimmern spielen wollen.
Andre83hro schrieb:
Hilfe ich kann nicht mehr und wie sich alle weiter im Kreis drehen ohne eine gewisse Akzeptanz. Man merkt die neue Genration driftet immer mehr ab in diese KI Sache (Wahnsinn).
In einem Satz mangelnde Akzeptanz beklagen und im nächsten jegliche Akzeptanz vermissen lassen... Wahnsinn.

No_Toxic_Gamer schrieb:
Ich kann es nur wiederholen warum testet PCGH genauso und warum gibt es dann offensichtlich in der PCGH Community eine Nachfrage danach?! Wenn es doch alles so unlogisch und sinnlos ist.
Die PCGH testet laut Raff so, weil es in deren Community genug Leute gibt, die das so wollen, obwohl Raff und afaik auch andere Teile der Redaktion dies nicht mehr für sinnvoll halten.

Warum diese Teile der Community das wollen, kann ich dir nicht sagen. Du konntest bisher hier aber auch nicht logisch darlegen, warum du das selber willst. Nur das du es willst.
 
  • Gefällt mir
Reaktionen: usmave, BlaueElbe, unspektakulaer und 4 andere
Blackfirehawk schrieb:
Schalt erstmal das ingame sharpening aus bevor du den Vergleich machst..
In den Space Marine 2 Screenshots ist wohl die Schärfeeinstellung nicht 0, aber sie zeigen halt deutlich die unterschiedliche Schärfe der Modelle bei gleicher Schärfeeinstellung. Die Screenshots sind nicht von mir. Ich habe die Schärfe überall auf 0 und zusätzlich noch die Schärfe am Monitor auf 0. Es scheint halt so zu sein, dass bei M eine kontrastadaptive Schärfung stattzufinden scheint auch wenn die Schärfeeinstellung 0 ist. Es kann natürlich auch einfach sein, dass das Modell jetzt wahrnehmungsorientierter arbeitet und kontrastreiche Stellen bevorzugt. Eine zusätzliche Schärfeeinstellung verstärkt den Effekt dann natürlich noch zusätzlich. Bei Schärfe 0 sind keine Halos zu sehen, aber es ist deutlich eine variable Schärfe abhängig vom Kontrast zu sehen.
 
Zuletzt bearbeitet:
Bin ich die einzige welche die Presetbuchstaben maximal verwirrend findet? Das kann man entweder auswendig lernen oder jedesmal in einer Tabelle nachschauen aber irgendeine Logik fehlt da doch komplett.
Das könnte man doch so einfach lösen das jeder sofort ersehen kann was man im jeweiligen Preset erwarten kann und sich gut vermitteln lässt.
Z.B. Q B P als erste Zuordnung. Quality, Balanced, Performance kapiert noch jeder. Diese Zuordnung zeigt die Bildqualität.
Dazu einfach eine zweite Zuordnung in Form von Schulnoten 1-5 für den zu erwartenden FPS-Boost.

So könnte als Beispiel ComputerBase in Tests nachvollziehbare Empfehlungen abgeben in Form von: Für das Spiel Dingens und Grafikkarte Dongens empfehlen wir für 120fps das Preset Q3.
Q4 und B5 ist dank der neuen Treiber auch möglich aber wir empfehlen dafür die neue GraKa-Gen da die Performance älterer Modelle zu sehr leidet.

Wird natürlich nicht umgesetzt werden von den Herstellern, wäre auch zu einfach aber das ist mein einziger Kritikpunkt an den ganzen DLSS Updates. Ansonsten muss ich sagen hat jedes Update geliefert, mal mehr mal weniger und es gibt auch Spiele die ich via Swapper hochgestuft habe und es danach rückgängig gemacht habe weil die Engine wohl besser mit einer älteren Version klarkommt. Hat dann aber mit DLSS an sich ja nichts zu tun. Ich freue mich jedenfalls immer auf die neuen Versionen und die Neugier ob ich einen Unterschied sehe und natürlich zeigt dieser Software -Support auch das ich mit der Hardware einen guten Kauf gemacht habe, da kann man sich ja auch mal drüber freuen, aber es wird zu gern gemeckert. Hab ich ja auch gemacht mit den Preset-Buchstabensalat.

Ps. Bei Cyberpunk hab ich das Update recht ausführlich getestet und es sieht für mich in der 4.5 subjektiv besser aus als 4.0. Etwas knackiger. Und Ende vom Lied: Neue DLSS Version gelassen und ich hab's wieder auf RayReconstruction gestellt. Sieht für mich im Spiel am stimmigsten aus. Auch wenn ich dadurch ja wohl wieder auf das Preset K von DLSS4 falle.

Schönen Sonntag euch Allen...
 
  • Gefällt mir
Reaktionen: Brrr
Taxxor schrieb:
Weil viele einfach nicht sehr helle sind und ebensowenig begründen können warum man das tun sollte, weil sie keine Ahnung von Benchmarks haben?
Schwierig das man Leute offenkundig als dumm bezeichnet weil sie sich andere, alternative Tests anschauen. Ich denke so ein Niveau braucht es nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm und Andre83hro
Solange keine logische Begründung dahinter steht, bleibt es auch bei dieser Einschätzung.
Ergänzung ()

MariaDocks schrieb:
Bin ich die einzige welche die Presetbuchstaben maximal verwirrend findet? Das kann man entweder auswendig lernen oder jedesmal in einer Tabelle nachschauen aber irgendeine Logik fehlt da doch komplett.
Oder einfach den Treiber regeln lassen, ich hab noch nie manuell ein preset gewählt sondern lasse immer den Treiber das jeweils aktuellste nutzen.
Sollte man sich jetzt bei Preset M an der etwas geringeren Performance stören, würde ich einfach im Spiel die DLSS Stufe noch eins runter stellen statt im Treiber das Preset anpassen zu wollen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave
N0Thing schrieb:
Du konntest bisher hier aber auch nicht logisch darlegen, warum du das selber willst. Nur das du es willst.
Doch das habe ich, nur wollt ihr das nicht akzeptieren weil es nicht eurer Sicht der Dinge entspricht. Das ist Alles. Ich habe aber damit kein Problem wo sich Jemand sein Balken anschaut. Die einen da, die Anderen da. Damit ist das Thema für mich auch beendet. Weil der Weg den diese Diskussion eingeschlagen zu nichts mehr führt.
Ergänzung ()

Taxxor schrieb:
Solange keine logische Begründung dahinter steht, bleibt es auch bei dieser Einschätzung.
Wenn das dein Niveau ist... Schade aber ist dann halt so.
 
  • Gefällt mir
Reaktionen: SweetOhm und Andre83hro
No_Toxic_Gamer schrieb:
Doch das habe ich
Nein das hast du nicht, alles was du getan hast ist zu sagen "ich will es halt so getestet haben und ihr könnt mich da auch nicht umstimmen".

Warum ein fps Vergleich bei unterschiedlicher Optik oder praxisfernem setup(TAA bei RTX) sinnvoll sein soll, hast du nie begründet, sondern bist nach diesen Fragen direkt übergegangen zu "ist doch okay, ihr schaut euch eure Balken an und ich mir meine"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave, Quidproquo77, N0Thing und eine weitere Person
Das große Problem ist ja, dass es kein objektives Maß für Bildqualität gibt. Es ist nicht irgendeine Zahl, sei es auch dimensionslos, sondern eine mit Hilfe von subjektiven Wahrnehmungsfaktoren objektiv beschreibbare Eigenschaft. Man kann also durchaus neutral die Bildqualität beschreiben, wie etwa mit Hilfe von Farbgenauigkeit, Flimmern/Bildruhe, Schmierung, Schärfe etc, doch in Summe fehlt eine genormte Skala dafür.

Bisher konnte man immer eine Basis bilden und objektiv (zum größten Teil) Vergleiche ziehen: dasselbe Setup, dieselben Grafiksettings im Spiel -> Performancevergleich in fps, Effizienzvergleich in fps/Watt usw.

Seit einiger Zeit geht das nicht mehr wirklich, weil die zum Einsatz kommenden Algorithmen zu große Unterschiede aufweisen. Sie deshalb nicht in Funktion zu setzen ergäbe auch keinen Sinn, weil es feste Bestandteile sind, welche das Endresultat (z.T. massiv) verbessern. Man würde dadurch eine Grafikkarte künstlich auf ein niedrigeres Niveau bringen, nur um dann ein verfälschendes - gar unrealistisches Resultat aufzeichnen zu können. Im worst case kann das dabei suggerieren, dass die eigentlich "schlechtere" Karte vermeintlich bessere Ergebnisse liefert, nur weil man bei der stärkeren Karte alles deaktivierte, was die schlechtere nicht hat oder schlechter umsetzt.

Die andere Seite der Medaille ist, dass man zwischen den Herstellern dann kaum Vergleiche zieht. Nicht nur das; auch bei demselben Hersteller wären Vergleiche teils nicht mehr möglich. Das kann also auch nicht die Lösung sein. Man muss sich in der Mitte treffen, es geht halt nicht anders

Die Mitte wäre dann entweder, dass man die unterschiedlichen Bildqualitäten dann doch vernachlässigt um so verschiedene GPUs miteinander zu vergleichen oder dass man den Testaufwand erhöht und immer einen "@nativ" Benchmark draufpackt. Beides sind Kompromisslösungen.

Ohne Kompromisse müsste es, wenn man beim Thema konsequent bleibt, nur noch isolierte Tests für RTX, RDNA3, RDNA2 usw. geben, zumindest so lange, bis die Lösungen der jeweiligen Hersteller qualitätsmäßig nahezu gleiche Ergebnisse liefern.
 
  • Gefällt mir
Reaktionen: SweetOhm, Brrr, Taxxor und 3 andere
Habe mir jetzt auch mal die Bildqualität von DLSS Ultra Performance mit Preset L bei Red Dead Redemption 2 angeschaut. Ich muss sagen ich bin schwer beeindruckt. Ich würde in diesem speziellen Spiel (außergewöhnlich matschig mit TAA) sogar sagen, dass DLSS Ultra Performance mit Preset L besser aussieht als Nativ + TAA.
 
Was ist Momentan besser, DLSS Ray Reconstruction + Path Tracing oder DLSS 4.5 Preset M/L bei 4K?

In Cyberpunk ist mir aufgefallen, dass mein DLSS 4.5 Preset M deaktiviert wird, sobald ich DLSS Ray Reconstruction + Path Tracing aktiviere. Das ist mir über Nvidias Interface aufgefallen, in dem man sich anzeigen lassen kann, welches Modell gerade läuft.

Auf Reddit bin ich auf diesen Thread gestoßen: https://www.reddit.com/r/nvidia/comments/1q9ayq7/comparing_dlss_45_m_to_ray_reconstruction_with/
 
  • Gefällt mir
Reaktionen: Snapuman
Izaya27 schrieb:
Weil in Cyberpunk habe ich festgestellt, dass wenn ich DLSS Ray Reconstruction + Path Tracing aktiviere wird mein DLSS 4.5 Preset M deaktiviert... Mir ist das über Nvidias Interface aufgefallen wo man sich anzeigen lassen kann welches Modell man laufen hat.
Wurde schon erklärt. Rayreconstuktion funktioniert noch nicht mit vollem 4.5 samt MFG. Sobald du es dazuschaltest wird es runtergestuft.

Musst wohl abwarten bis der Beta-Status vorbei ist und eine neue Treiberversion kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Snapuman und Izaya27
  • Gefällt mir
Reaktionen: SweetOhm
Blackfirehawk schrieb:
stand jetzt sind die dinger aufm gebrauchtmarkt tote backsteine
Keineswegs, die Karten laufen aufgrund der Speicherkrise eher sogar noch zu leicht höheren Preisen aus.
 
  • Gefällt mir
Reaktionen: Andre83hro und Quidproquo77
DaHell63 schrieb:
Apropo Bildqualität

FSR Q...FSR nativ...DLSS up....schnell erkennbar oder nicht? Was ist was?
Ich würde raten:
1. FSR Native
2. FSR Quality
3. DLSS Ultra Performance

Hast Du Bilder mit FSR 4 und DLSS 4.5 (und welches Preset?) gemacht?
 
  • Gefällt mir
Reaktionen: DaHell63
No_Toxic_Gamer schrieb:
Doch das habe ich, nur wollt ihr das nicht akzeptieren weil es nicht eurer Sicht der Dinge entspricht.
Ich habe davon nichts gelesen, wo wäre das denn gewesen?
Nach dem aktuellen Stand benötigt FSR3 Quality auf einer 7900XTX deutlich weniger Zeit als DLSS 4.5 Preset M auf einer 5080 und lass es nur 11% sein. Selbst DLSS4/FSR4 braucht etwas länger.

Allerdings sieht nach meinem Eindruck selbst DLSS4 UP vergleichbar zu FSR 3 Native aus, bzw. DLSS4.5 UP besser.

Unterm Strich muss klar gesagt werden, dass hier Äpfel mit Birnen verglichen werden. Vor allem dann wenn man den besseren Upscaler und den höheren Berechnungsaufwand nicht würdigt.
No_Toxic_Gamer schrieb:
Die einen da, die Anderen da. Damit ist das Thema für mich auch beendet.
Wo sich jemand was auch immer ansieht war nicht das eigentliche Thema. Überflüssig. Es geht um die Begründung warum jemand so testen sollte wie du es forderst. Hier sind wir wieder bei der vorherigen Diskussion, als du den Support von DLSS4 oder 4.5 mit FSR 4 INT8 auf RDNA3 gleichsetzen wolltest, obwohl auch das absurd ist.
No_Toxic_Gamer schrieb:
Weil der Weg den diese Diskussion eingeschlagen zu nichts mehr führt.
Und du die inhaltliche Auseinandersetzung mit Nebenkriegsschauplätzen auffüllst um Recht zu behalten. Deine Forderung würde aktuelle Karten sogar über Gebühr noch bestrafen, weil sie ne bessere Grafik rendern.

Warum du das willst ist logisch, es geht wieder um den Hersteller-Cope. Denn wenn man diese Büchse mal geöffnet hat, kann es sein, dass auch RDNA4 in Zukunft dieses Schicksal trifft und man die GPU demgemäß abstuft, was aber nur folgerichtig wäre. Das gilt es zu verhindern - einen anderen Grund kann ich mir nicht vorstellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave, Taxxor und Snapuman
No_Toxic_Gamer schrieb:
Aufgrund ihrer Test-Änderungen ist für mich CB schon länger nicht mehr relevant mit ihren Benchmarks selbst, früher noch Platz 2 hinter PCGH. Früher habe ich beide immer mal, gerne gegeneinander verglichen, die Änderungen machen das aber nicht mehr vergleichbar. Von daher ignoriere ich die Gaming Benchmarks von CB seitdem auch komplett.
+1

Dito bzw. same same :daumen:
 
GOOFY71 schrieb:
Keineswegs, die Karten laufen aufgrund der Speicherkrise eher sogar noch zu leicht höheren Preisen aus.
all der Vram bringt dir nur ohne das ganze Featurset nix...

mit den zusätzlichen 8gb gegenüber einer Rx9070XT/RTX4080/RTX5070Ti kannst du dir den pöppes abwischen..

Professionelles arbeiten steht die Karte genauso doof da wegen fehlendem Cuda
bei KI berechnung ist 24GB auch nicht viel besser als 16GB... vorallem nicht wenn die verbundene GPU an entsprechender KI berechnungsleistung fehlt.

Stand jetzt würde ich eine 7900xtx auf dem gebraucht Markt weder kaufen noch empfehlen.. und wenn dann für bedeutend unter 500€

das fehlende featureset zur ca 650-700€ teuren RX9070XT (Neuware) der umstand das sie gebraucht ist... und das AMD die generation faktisch aufgegeben hat halbiert für mich den wert der Karte auf ca 300-350€ gebraucht.

wenn dir jetzt einer mehr als das bietet hast du noch n guten deal gemacht
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
und das AMD die generation faktisch aufgegeben hat halbiert für mich den wert der Karte auf ca 300-350€ gebraucht.
Die Karten gehen trotzdem wie geschnitten Brot. Der Verbraucher bestimmt den Preis. Sogar alte 6800XT gehen wieder Richtung 350€. Aber im Grunde sehr ich das ähnlich.
 
Zurück
Oben