Test F1 22 mit Patch 1.17 im Test: AMD FSR 2.2, FSR 1, Nvidia DLSS 2.4 & 3 fahren um die Wette

cypeak schrieb:
jetzt muss man auch noch "studieren" welche (grakaabhängige) upsampling technik in welcher version (sic!) wie gut funktioniert
Oder man spielt einfach und hat Spaß, wenn man an den technischen Details kein Interesse hat. Für mich macht das beinahe die Hälfte des Spaß bei diesem Hobby aus. Aber man muss sich nicht damit befassen. Wer die Unterschiede nicht mit der Lupe sucht wird auch keine finden.
 
Experte18 schrieb:
Vielleicht hat hier Nvidia ein bisschen nachgeholfen um DLSS weiterhin als Kaufargument zu sehen.:mad::D

Oder vielleicht ist DLSS in F1 22 einfach besser... Ockhams Rasiermesser
 
Sebastian_12 schrieb:
AMD Fan boy detected ....
Ach bitte, ich habe auch eine 4090 - Aber ich fange nicht an dll-Datein zu tauschen und dann die Bildqualität zu vergleichen. Zumal eine neuere DLSS-dll nicht immer zwingend eine bessere Bildqualität bedeutet. Wer sich da in Reddit-Diskussionen rein hängen möchte und dem DLSS-swapper bemühen, kann das gerne tun. Aber ob ein solcher Test der richtige Rahmen für solche Sonderfälle ist ... ich wage es zu bezweifeln.
 
  • Gefällt mir
Reaktionen: iron_monkey und HierGibtsNichts
Heißt das DLSS3 hohen Latenz verursacht, also ist es iwie unbrauchbar ?
 
Rockstar85 schrieb:
Nun ja, ähnliches konnte ich bei MSFS beim Kollegen mi0t einer 4080 sehen.. Statische Bilder kein Thema, doch wehe es kommt Bewegung rein.
Und das Fazit ist halt echt wichtig, für den ganzen Artikel
Vielleicht stehe ich auf dem Schlauch, aber inwiefern hat das mit meiner Aussage zu tun? :D Komme gerade nicht mit.
 
Thares schrieb:
Heißt das DLSS3 hohen Latenz verursacht, also ist es iwie unbrauchbar ?
Nvidias Bildgenerator erhöht grundsätzlich die Latenz, weil er mit der Berechnung des Beschissbildes 0.5 warten muss, bis die echten Bilder 0 und 1 fertig berechnet sind.

Ist es dadurch unbrauchbar? Für manche offenbar nicht.
 
  • Gefällt mir
Reaktionen: iron_monkey und jo0
War ehrlich gesagt auch nicht wirklich anders zu erwarten.
Ich hab bislang noch kein Spiel gesehen bei dem man zwischen den beiden Techniken switchen konnte in dem FSR besser ausgesehen hätte als DLSS. Vor allem auf ner großen Diagonale fällt das Flimmern etc sofort auf.
 
Zuletzt bearbeitet:
Experte18 schrieb:
Vielleicht hat hier Nvidia ein bisschen nachgeholfen um DLSS weiterhin als Kaufargument zu sehen.:mad::D

Einfach nur peinlich.
 
  • Gefällt mir
Reaktionen: !Whip, Iconoclast, karl_laschnikow und eine weitere Person
incurable schrieb:
Nvidias Bildgenerator erhöht grundsätzlich die Latenz, weil er mit der Berechnung des Beschissbildes 0.5 warten muss, bis die echten Bilder 0 und 1 fertig berechnet sind.

Ist es dadurch unbrauchbar? Für manche offenbar nicht.
Nvidia Reflex *
 
piccolo85 schrieb:
Oder man spielt einfach und hat Spaß
grundsätzlich ist das ja der sinn der sache - ich bin primär spieler und irgendwo danach kommt das interesse an der hardware.
inzwischen ist dlss/fsr bei höheren auflösungen und detailstufen aber immer relevanter wenn es darum geht spielbare frameraten hinzubekommen; zumindest wenn man kein interesse daran hat sich die teueren grakas aus der oberen leistungslagen anzuschaffen.
sprich man muss sich mehr oder weniger damit auseiandersetzen was die vor und nachteile der jeweiligen technik in der gegebenen version/ausbaustufe sind.
 
JohnWickzer schrieb:
Um zusätzliche Latenzen durch die Erstellung von Beschissbildern zu eliminieren bräuchte es Nvidia Glaskugelex, besser noch Nvidia Glaskugelex+.

Dafür gibt es bisher leider keinen geplanten Veröffentlichungstermin, aber vielleicht kann ja die Google Stadia Truppe mit ihrer Erfahrung im Bereich "negative Latenz" helfen, ich hab gehört, die wären frei und offen für neue Aufgaben.
 
  • Gefällt mir
Reaktionen: rumpel01, iron_monkey und jo0
Twin_Four schrieb:
Bald muss ich studieren, um den/die besten Filter/Einstellungen zu finden, um Spiele mal in der optimalen Qualität zu spielen. Alles nicht wirklich nutzerfreundlich und ausgegoren.
Ganz einfach - ohne FSR und DLSS, sondern Nativ.
So mache ich das und so werde ich auch weitermachen, bis ich der Meinung bin das diese Technik auch "ausgreift" ist. ;)
 
  • Gefällt mir
Reaktionen: OZZHI
@Wolfgang
So mal eben getestet das Spiel hat DLSS 2.4.0 auf 2.5.1 upgedatet jetzt sieht DLSS 2.5.1 Performance so gut aus wie DLSS 2.4.0 Qualität und gibt viel weniger ghosting ...
 
  • Gefällt mir
Reaktionen: !Whip, Zer0Strat und jlnprssnr
Testet doch mal bitte ob es einen Energiespareffekt gibt, wenn ich beispielsweise ein "langsames" Spiel wie Anno 1800 spiele und dann so eine Technik einsetze + Frame Limiter.

Da ist die Eingabelatenz ja nicht so wichtig
 
incurable schrieb:
Nvidias Bildgenerator erhöht grundsätzlich die Latenz, weil er mit der Berechnung des Beschissbildes 0.5 warten muss, bis die echten Bilder 0 und 1 fertig berechnet sind.

Ist es dadurch unbrauchbar? Für manche offenbar nicht.
Solange Nativ ein Rechner die gewünschte FPS liefert, hat DLSS oder FSR kein Nutzen würde ich sagen. Bei schwächeren Hardware desto mehr.

Bei Shooter kann man sowieso DLSS und desgleichen sowieso kaum brauchen.
 
Sebastian_12 schrieb:
Ja schön das würde ich mir gerne mal durchlesen. Quelle =?
Ergänzung ()

john.smiles schrieb:
Hand aufs Herz - weißt du wirklich, was die Optionen im Grafikmenü alles bewirken? Bei Cyberpunk musste ich googlen, bei War thunder hat nicht mal googlen geholfen.
So ist halt das PC Gaming. Wer es einfacher mag kauft eine Konsole. Nothing new ..

Übrigens habe ich nur das Fazit gelesen und habe den Artikel als zu einseitig empfunden.
CB hätte diesen besser erst dann veröffentlicht, wenn ein anderes Spiel ebenso getestet worden wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
MCCornholio schrieb:
Ja schön das würde ich mir gerne mal durchlesen. Quelle =?
Sowas sollte mittlerweile als allgemein bekannter Stand der Technik gelten und bedarf keiner Quellenangabe. Mit einem Framelimiter verringert man immer die GPU-Last und damit den Stromverbrauch. (*außer im CPU-Limit)

Wäre nur die Frage, ob Framegeneration überhaupt ausgeführt wird, wenn man bspw. auf 30fps limitiert und die GPU das schon ohne Framegeneration mit nur 30% Last oder so schafft. Oder man stellt 30fps als Limit ein und hat mit Framegeneration dann mehr als 30fps?
 
@MCCornholio
nativ
nativ.jpg

fsr1q
fsr1q.jpg
 
  • Gefällt mir
Reaktionen: MCCornholio, karl_laschnikow, Zer0Strat und 3 andere
Zurück
Oben