Test F1 22 mit Patch 1.17 im Test: AMD FSR 2.2, FSR 1, Nvidia DLSS 2.4 & 3 fahren um die Wette

Was machen die Programmierer vom Spiel beruflich? Dlss gerade einmal ausreichend implementiert und fsr ungenügend..... Haben die das ein einziges Mal getestet? Frame Generation funktioniert immerhin einigermaßen gut, Rennspiele (außer Forza) sind jedoch sowieso nicht meins.
Für den Endkunden ist es aber vollkommen egal wer das ganze verhauen hat, da ist es völlig unangebracht AMD oder zum teil Nvidia in Schutz zu nehmen, wenn die Umsetzung katastrophal ist, und das ist sie bei fsr, dann ist es definitiv auch die Aufgabe von AMD zu den Entwicklern zu gehen und zu sagen das das so nicht geht. Inakzeptables Ergebnis von beiden Seiten.
 
.Sentinel. schrieb:
Also schießt Du freiwillig Effizienz, Grafikqualität und überlegenes Antialias ab, nur um zu erreichen, dass Du Artefakte dann gegen andere Artefakte tauschst und das bei erheblich weniger Leistung?

Ich stelle die Einstellungen im Spiel runter und habe dadurch doch nicht igendwelche Artefakte... und sicherlich habe ich dadurch keine Bildfehler, wie die in dem Rennspiel hier, wo die Anzeigen über den Autos total verhuntzt sind.

.Sentinel. schrieb:
Leider wieder falsch, da Schärfefilter bei korrekter Implementation nicht notwendig sind.

Deswegen gibts die Schärfefilter, weil die Implementation immer so überaus korrekt ist...

.Sentinel. schrieb:
Das kann ja wohl grundsätzlich nie schaden...

Meine Spiele laufen auch ohne ordentlich, merke keinen Unterschied zwischen on/off. Aber ja, hier muss ich dir tatsächlich recht geben, das Gedöns kann wohl nicht wirklich schaden.

.Sentinel. schrieb:
Wenn Du es ausstellst, hast Du oftmals höhere Latenz, unterlegene Bildqualität da Quantisierungsartefakte, garniert mit höherem Stroverbrauch bei niedrigeren FPS

Gratuliere. Der "native- warrior" hat den Weg zur Steinzeit zurückgefunden.

Wenn dir die DLSS bzw. FSR Grafik gefällt ist es schön, ich möchte eher keine Schlieren, Ghosting oder andere Bugs dadurch und wähle lieber, wenn nötig, die abgespeckte Grafik ohne solche Grafikfehler.
Die FPS sind ja eh auf einen Höchstwert beschränkt und die Unterschiede in der Leistungsaufnahme sind mir die Bildfehler nicht wert, da nutze ich lieber meinen OptiGrill weniger... wobei eigentlich auch nicht!

.Sentinel. schrieb:
Aber klar- Du würdest auch lieber das "lückenhafte" dafür native Bild bevorzugen, oder (siehe Antennen)?

Sieht aus wie ein Bild komplett ohne/low AA vs eines mit DLSS... ohne konkrete Angaben zu den jeweiligen Einstellungen halt nicht wirklich überzeugend!
 
  • Gefällt mir
Reaktionen: Anon-525334
iron_monkey schrieb:
Ich stelle die Einstellungen im Spiel runter und habe dadurch doch nicht igendwelche Artefakte...
Doch - Dazu muss man sich vergegenwärtigen dass Rastern bedeutet, dass Du eine potenziell unendlich Auflösende Szene in Kästchenform pressen musst. Deshalb muss es zwangsläufig zu Fehlwerten in der Farbdarstellung kommen.

iron_monkey schrieb:
und sicherlich habe ich dadurch keine Bildfehler, wie die in dem Rennspiel hier, wo die Anzeigen über den Autos total verhuntzt sind.
Je nach Auflösung hast Du solche Bildfehler eben schon. Nämlich genau ab dem Zeitpunkt, ab dem sich Textoverlays nicht pixel- Perfext in die Rasterauflösung einpassen.

Hier ab 7:20 siehst Du, was Rastern an Artefakten gerade an Kanten und Farbübergängen generiert. Die niedrige Auflösung legt das Brennglas drauf. Checkt nur keiner mehr, weil durch Filter und Antialiasing inzwischen selbst das vermeintlich "native" Bild nachbehandelt ist.


iron_monkey schrieb:
Deswegen gibts die Schärfefilter, weil die Implementation immer so überaus korrekt ist...
Die Schärfefilter gibt es nur, weil die wenigsten Implementationen sauber sind aber auch weil diverse User inzwischen dem absoluten Schärfewahn erlegen sind.
Oftmals werden die Bild extrem überschärft. In keiner natürlichen Aufnahme ist das zu finden, was sich die User diesbezüglich oft einstellen.

iron_monkey schrieb:
Wenn dir die DLSS bzw. FSR Grafik gefällt ist es schön, ich möchte eher keine Schlieren, Ghosting oder andere Bugs dadurch und wähle lieber, wenn nötig, die abgespeckte Grafik ohne solche Grafikfehler.
Das hat nichts mit Gefallen zu tun. Ein Bild mit Supersampling hat höhere Qualität und weniger Fehler als ein gerastertes ohne eben dies. Schlieren und Ghosting gibt es nur, wenn bei der Implementation gepfuscht wird. Gibt diverse Beispiele ohne Artefakte und Schlieren. Komplett Bugfrei.

Somit ist es berechtigt, auf diverse schlechte Umsetzungen zu schimpfen, aber nicht auf die Technik an sich.

iron_monkey schrieb:
Sieht aus wie ein Bild komplett ohne/low AA vs eines mit DLSS... ohne konkrete Angaben zu den jeweiligen Einstellungen halt nicht wirklich überzeugend!
Eins ist TAA und eins ist DLSS. Ohne TAA wäre die Antennenlandschaft noch löchriger.
Ergänzung ()

incurable schrieb:
So wie sich Nvidia bei Vergleichen meist (immer?) auf temporale Matschfilter konzentriert.
Es ist halt nunmal so, dass moderne Spiele ein temporales AA haben müssen, da aufgrund diverser Rendertechniken sonst flimmern und flirren die zwangsläufige Folge ist.

Hier ab 2:12 kann man bewundern, was das native Bild in modernen Titeln tatsächlich wert ist:

So will kein Mensch spielen... Dennoch wird das "native" Bild immer wieder in den Himmel gelobt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg, Syrian, iron_monkey und 2 andere
Egal ob nVidias DLSS oder AMDs FSR, alles unausgegorene Lösungen.
In Version 5 oder 6 schaue ich mir den Kram dann noch mal an.

Einfach 'ne Grafikkarte mit genug Power kaufen und bei UWFHD oder bestenfalls UWQHD bleiben.
Natürlich mit max AA! Oldschool halt.
 
AYAlf schrieb:
Egal ob nVidias DLSS oder AMDs FSR, alles unausgegorene Lösungen.
Technisch ist die Aussage falsch. Auch hier wird die Qualität der Implementation mit der Technik an sich verwechselt.

Zum Glück hat man mit diesen Techniken intelligentere Wege als Brute- Force- Rendering, also pure und sinnlose Energieverschwendung eingeschlagen. Zum Glück erkennen auch die meisten User inzwischen die großen Vorteile, die die neuen Techniken bieten können.
 
  • Gefällt mir
Reaktionen: surtic und MrHeisenberg
Ich frage mich, wenn es doch nicht spürbar durch starke Bildfehler auffällt, was juckt es dann, ob die Frames "Fake" sind oder nicht?
Es sind eben doppelte Frames, die man auch spürt, für die die GPU nur etwas mehr und die CPU überhaupt nicht arbeiten muss.

Wenn mein Gehalt einfach so verdoppelt wird, sag ich ja auch nicht ne lass mal, ich steh nicht so auf Geld, für das nicht hart gearbeitet wurde^^
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Ragnarök88 schrieb:
Was würde ich dafür geben, dass diese unsinnigen Meinungsbeiträge aus dem letzten Jahrhundert abebben.
30+ Likes hat sein Beitrag. Mich würde mal interessieren, wie viele von denen überhaupt DLSS fähige Hardware haben.
Ergänzung ()

incurable schrieb:
Was ist an heute existierenden Bildfehlern "Meinung" "aus dem letzten Jahrhundert"?
Clipping ist dir ein Begriff?
Das Problem hat man bis heute noch nicht gelöst, allerdings fällt es in vielen Spielen gar nicht auf.
Mit deinem Argument dürftest du also gar nichts spielen, weil alle Frames "beschiss" sind und Fehler enhalten (können).
Hier ein weiteres Beispiel von Quake 3:

Aber gut, wenn du lieber in 4K mit <30 Frames zockst oder auf Low den Pixelmatsch so viel besser findest, dann gönn dir.
Ich genieße währendessen Ultrasettings in 4K mit 60-120 FPS x)

.Sentinel. schrieb:
Es wäre schön, wenn sich die Leute mal mit tiefgreifend mit entsprechenden Techniken beschäftigen würden, bevor Nachplappern und Stammtischparolen das Ruder übernehmen.
Dafür bist du hier leider im falschen Forum.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ben_computer_Ba, JohnWickzer und Zer0Strat
@Wolfgang Hab beim Nv HQ nachgefragt. Reflex wird genutzt, aber wegen der Option in den Settings verweisen sie auf den Spielehersteller.

1674202327834.png
 
  • Gefällt mir
Reaktionen: incurable
Damit haben wir auch hier nicht nur >50% mehr FPS sondern auch gleichzeitig eine 12% geringere Latenz mit FG.
Das Argument mit der schlechteren Latenz zählt wie schon mehrfach erwähnt eben nur für Nvidia Karten die dann auch ohne FG Reflex aktiv haben, was in diesem Spiel nun gar nicht geht.
Wenn FG so schlechte Latenzen haben soll, müsste das Spiel ja bisher unspielbare Latenzen gehabt haben.

Es ist eben eher so, dass die Latenz Nativ mit Reflex noch mal besser wäre als Nativ ohne Reflex und nicht, dass sie mit FG generell schlecht wäre.

Denn ich habe bisher keinen sagen hören, dass die Latenz in F1 22 schlecht wäre. Auch habe ich noch nie gelesen, dass in den anderen Spielen, die aktuell FG bieten, AMD Nutzer, die ja Reflex nicht nutzen können, unspielbare Latenzen hätten.

FG+Reflex verbessert diese Latenzen nun sogar noch gegenüber Nativ. Da FG einiges an Latenz kostet, ist der Sprung nicht so stark, aber Reflex senkt die Latenz trotzdem in Summe mehr, als FG sie hoch setzt.

Ja, Reflex alleine würde demnach die Latenz noch weiter verringern, aber wie gesagt, wer vorher ohne Reflex keine Probleme mit der Latenz hatte, wird mit FG+Refllex erst recht keine Probleme haben.

Ich glaube aber auch generell, dass kaum jemand hier einen Unterschied beim Input Lag von 80ms auf 70ms, den man durch Reflex+FG bekommt, bemerken würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
.Sentinel. schrieb:
Gibt diverse Beispiele ohne Artefakte und Schlieren. Komplett Bugfrei.
Ich stimme deiner gesamten Argumentation bis auf diesen Punkt zu, denn das ist funktional quasi unmöglich. Die KI schätzt ja, weil sie versucht Strukturen zu erkennen. Das kann aber auch für ein paar Frames danebenliegen. Ist eben nie 100%, sondern best effort.

Mein Lieblingsbeispiel dazu ist z.B. eine Holzbrücke aus hintereinander liegenden Brettern in RDR2, der man sich mit ziemlich flachem Blickwinkel nähert. An stellen, wo ein ungefiltertes Bild Aliasing hätte, welches TAA hier sauberer lösen würde, sieht man DLSS, was ja mit einer noch niedrigeren Auflösung als Input arbeitet, und dementsprechend stärkeres Aliasing im Ausgangsmaterial hat, sich erstmal ein paar Frames einpendeln. Das kannst du quasi nicht verhindern.
 
  • Gefällt mir
Reaktionen: MountWalker
Grimba schrieb:
Die KI schätzt ja, weil sie versucht Strukturen zu erkennen.
Nein, tut sie nicht, da haben wir wieder seinen Punkt, dass die Leute DLSS nicht verstehen, weil Nvidia zu viel mit KI Buzzwords hantiert hat.
 
Es werden keine Strukturen erkannt und geschätzt wie sie aussehen müssten, das war der allererste Ansatz von DLSS 1.0

DLSS2 arbeitet genau wie FSR2 mit den Motion Vectors(unter anderem) um durch das Abtasten mehrerer Frames in geringerer Auflösung die Position der Pixel im nächsten Frame zu bestimmen.
Damit enthält das DLSS Bild von Grund auf mehr Bildinformationen, als das native Bild.

Der "KI"-Part bei DLSS2 betrifft einfach nur die Art, wie der dafür verwendete Algorithmus entstanden ist und weiterentwickelt wird. Während man DLSS mit der GPU nutzt, ist keine KI am Werk.

Eine detailliertere Erklärung maße ich mir nicht an, das kann @.Sentinel. deutlich besser
 
Taxxor schrieb:
Damit haben wir auch hier nicht nur >50% mehr FPS sondern auch gleichzeitig eine 12% geringere Latenz mit FG. Das Argument mit der schlechteren Latenz zählt wie schon mehrfach erwähnt eben nur für Nvidia Karten die dann auch ohne FG Reflex aktiv haben, was in diesem Spiel nun gar nicht geht.
Wenn FG so schlechte Latenzen haben soll, müsste das Spiel ja bisher unspielbare Latenzen gehabt haben.

Ich sehe das Problem nicht darin, dass die Latenzen mit FG schlechter als bei AMD oder ähnliches wären. Das Problem ist, dass die Latenzen mit FG immer schlechter sind als ohne FG bei den ansonsten gleichen Voraussetzungen, was zur Folge hat, dass ein FPS mit DLSS 3 eben weniger wert ist als ein FPS ohne FG. Mit FG, ganz gleich ob dieses durch DLSS 3 oder später durch FSR 3 erzeugt wird, unterscheidet sich in der Wirkung zu einem FPS mit zum Beispiel DLSS 2 / FSR 2.

Das ist nichts, was gegen FG oder ähnlichem spricht. Problematisch sehe ich nur die direkten Vergleiche an. Denn, "ich habe 100 FPS mit FG" und "ich habe 100 FPS mit DLSS 2" (zum Beispiel) sind eben nicht dasselbe in der Performance. Das ist aber genau das, was die Hersteller machen bzw. machen werden.
 
  • Gefällt mir
Reaktionen: incurable
.Sentinel. schrieb:
Da 90% der Entwickler unfähig sind, die Vorgaben von nvidia umzusetzen, hilft das hier normalerweise um Deinen Matsch zu beseitigen:
  1. Download NVIDIA Profile Inspector
  2. Select a game profile
  3. Set Texture filtering - Negative LOD Bias to Allow
  4. Set Texture filtering - LOD Bias (DX) or (OGL) to a negative value (up to -3.0000)
Ist das allgemein eine Einstellung die man setzen sollte oder vom Spiel abhängig?
 
Wolfgang schrieb:
Denn, "ich habe 100 FPS mit FG" und "ich habe 100 FPS mit DLSS 2" (zum Beispiel) sind eben nicht dasselbe in der Performance.
Das stimmt zwar, aber wie gesagt, wen die Latenz von Nativ bereits nicht stört, dem wird es auch nicht störend auffallen, wenn es mit FG nur 10ms und mit DLSS2 Quality dann 30ms weniger sind.

Es wird ja oftmals so dargestellt, als würde man mit FG zwar mehr FPS als Nativ bekommen, aber es würde quasi gar nichts bringen bzw. sich sogar schlechter anfühlen, weil die Latenz gleichzeitig nach oben geht.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Taxxor schrieb:
Damit enthält das DLSS Bild von Grund auf mehr Bildinformationen, als das native Bild.
Allerdings nicht in Grenzbereichen, wo sowieso Aliasing herrscht und Strukturen verschwimmen. Gemeint ist nicht die Antenne vor blauem Himmel. Das ist es ja. Du hast zwar rein betragsmäßig vielleicht mehr Input, du hast aber eben nicht alle Pixel des nativen Bildes. Nach wie vor machst du aus wenig mehr. Und in solchen Bereichen, wie in meinem Beispiel hat so ein Algorithmus oder auch eine KI eben schlechte Karten wohingegen TAA oder gar SSAA bessere Karten haben, mit dem üblichen Nachteil der Verwaschenheit oder dem Leistungsverlust.
 
  • Gefällt mir
Reaktionen: MountWalker
Es wurde ja auf der letzten Seite ein Vergleich zwischen TAA und DLSS gepostet, da sieht man, was TAA auch mit feinen Strukturen machen kann, genau solche, wo viel Aliasing vorhanden ist.

DLSS ist auch ohne den Performancefaktor einfach das bessere Anti-Aliasing
 
  • Gefällt mir
Reaktionen: mospider und JohnWickzer
Zurück
Oben