Test FidelityFX Super Resolution im Test: AMD FSR 2.0, 1.0 und Nvidia DLSS im Vergleich

leonM schrieb:
Super, greift das schon bei FSR2.0 ??
Sonst wäre die Option ja wohl kaum da^^
Ich hab es selbst noch nicht ausprobiert, aber in einem YT Video hab ichs mal gesehen. Wirkt für mich nicht so gut gelungen da man schon recht deutlich merkt, dass im Hintergrund konstant die Renderauflösung verändert wird.
 
Taxxor schrieb:
Sonst wäre die Option ja wohl kaum da^^
Ich hab es selbst noch nicht ausprobiert, aber in einem YT Video hab ichs mal gesehen. Wirkt für mich nicht so gut gelungen da man schon recht deutlich merkt, dass im Hintergrund konstant die Renderauflösung verändert wird.
Dachte die Option greift nur bei FSR1.0 und dass es für FSR2.0 erst folgen wird aber der Algo/Konzept dies schon ermöglichen soll
 
TigerherzLXXXVI schrieb:
Das bedeutet also, dass diese Bildartefakte vermutlich ein generelles Problem bei temporalen Upsampling-Verfahren ist?
Exakt :)
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und .Sentinel.
leonM schrieb:
Dachte die Option greift nur bei FSR1.0 und dass es für FSR2.0 erst folgen wird aber der Algo/Konzept dies schon ermöglichen soll
Hab es gerade selbst mal ausprobiert und es funktioniert definitiv.
Nativ habe ich ca 90FPS und wenn ich das FPS Target auf 100 setze, hab ich 100-110FPS und das Bild sieht eigentlich exakt gleich aus.
Setze ich es dann auf 240, steigen meine FPS auf 165-170 und man sieht, dass die Qualität runter gegangen ist.

Ich wüsste auch nicht, dass bei der GDC gesagt wurde, dass das erst noch folgen soll. Was noch folgen soll ist FSR 2.0 mit nativer Renderauflösung als TAA Ersatz.

Aber je nach Szene und FPS Target wechselt die Renderauflösung doch schon mal ziemlich stark hin und her so dass es auffällig ist. Da bin ich lieber dafür, eine feste Auflösung zu verwenden mit der man so gut es geht nicht unter sein Target fällt und sich an die Bildqualität zu gewöhnen^^
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Artikel-Update: ComputerBase hat weitere Benchmarks mit FSR 2.0 durchgeführt. So müssen Radeon RX 6800 XT sowie GeForce RTX 3080 nun nicht mehr nur die Performance der Upsampling-Varianten in 3.840 × 2.160, sondern ebenso in 2.560 × 1.440 und auch 1.920 × 1.080 über sich ergehen lassen. Darüber hinaus wurden mit der Radeon RX 6700 XT und der GeForce RTX 3060 Ti zwei weitere Grafikkarten hinzu gefügt.
huh, die 3080 liegt in 2k 20% über der 6800xt auf nativer auflösung?

edit: @Wolfgang kannst du das bitte mal überprüfen? ich weiß dass das nur ein spiel ist aber in eurem Test zum Spiel ist da auch ein ganz anderes Ergebnis
 
@Taxxor
Dann hab ich das falsch in Erinnerung gehabt, dachte es würde noch kommen und aktuell wären dann feste Targetauflösungen festgelegt. Dann hab ich mal nichts gesagt :cool_alt:
 
TodboT schrieb:
huh, die 3080 liegt in 2k 20% über der 6800xt auf nativer auflösung?

edit: @Wolfgang kannst du das bitte mal überprüfen? ich weiß dass das nur ein spiel ist aber in eurem Test zum Spiel ist da auch ein ganz anderes Ergebnis
Im Test zum Spiel wurde doch nur 4K mit RT getestet und da liegt die 3080 31% vor der 6800XT, hier sind es 37%, was an Treiberupdates und Patches liegen kann.
 
Plastikman schrieb:
Damit zeigt sich dann doch irgendwie, dass dieses Tensorkernegedöns von NVidia einfach nur wieder blabla war, um mehr Geld zu kassieren.
Nein, es war eigentlich der Versuch, Funktionseinheiten für Machine Learning usw. eine Funktion im Gaming Bereich zu geben, damit man die Architekturen weiter verwenden kann. Macht wirtschaftlich natürlich Sinn, dass es anders auch funktioniert, zeigt AMD. Dedizierte Einheiten haben natürlich den Vorteil, andere Einheiten zu entlasten, die dann anderen Aufgaben nach gehen können. So oder so, finde ich beide Ansätze spannend, aber der AMD weg ist bedeutend eleganter.
 
Schön das AMD meine RX 6800 nochmal aufwertet !:verwandlung:
 
TigerherzLXXXVI schrieb:
Laut Computerbase-Redakteur sind aber keine eklatanten Bildfehler aufgefallen. Aber ich glaube dir natürlich, auch FSR 2.0 wird nicht völlig frei von Bildfehlern sein. Möglicherweise sind es dann eben andere als bei Nvidias Technik, Ghosting oder Smearing wie bei DLSS jedenfalls halte ich für ein alleiniges Problem der KI-Technik.
Siehe es dir bei DF an die es sehr gut veranschaulichen wo FSR noch seine Probleme hat:

 
  • Gefällt mir
Reaktionen: Affe007, Laphonso, .Sentinel. und eine weitere Person
Finde den Test eher relativ langweilig, auch wenn ich eine 6900XT besitze.
Mich würden eher Werte einer 1080/Ti oder AMD 290/390 oder AND Vega 56/64 interessieren.
 
  • Gefällt mir
Reaktionen: coral81 und Unnu
naicorion schrieb:
Oder "denkende" Programme, die dem Kunden smart vorkommen, aber am Ende auch nur auf viele verschiedene Eingaben abgestimmte Algorithmen sind. Wann fängt da wirklich "Intelligenz" an? Mir konnten das richtige ITler (bin keiner) bisher nicht erklären, ausser, dass alles, was ich bisher an Lösungen gesehen habe nicht wirklich selber lernen konnte.
Gibt es so nicht. KI ist vor allem ein wundervoller Marketingbegriff. Was es gibt is ML, also Machine Learning. Hier habe ich tatsächlich schon sich selbst verändernden Code gesehen. Aber das sind Ausnahmen!
Die riesigen neuronalen Netze die‘s für‘s Training braucht, können (wollen!) sich die wenigsten leisten.
Und wie Du schon gesagt hast, das meiste sind clever geschriebene Algorithmen, ggf. mit Feedbackschleife.
Das ist alles nicht „wirklich“ intelligent.
Skynet ist noch ein paar (viele?) Jahrzehnte entfernt.
 
  • Gefällt mir
Reaktionen: Laphonso, naicorion und .Sentinel.
Taxxor schrieb:
Wir hatten ja gestern schon mal das Thema, dass man das Ergebnis mit mehr Samples verbessern könnte.
Kann man nun nicht auch, wenn z.B. RDNA3 spezielle Hardwareeinheiten bekommen sollte, es im Code so anpassen, dass man standardmäßig mit X Samples arbeitet und wenn eine RDNA3 GPU erkannt wird, die in der Lage wäre, mit optimierten Einheiten das ganze schneller zu lösen, einfach X+n Samples benutzt?
Bingo- Wobei X+n Samples eher gegen das "Jittermuster" läuft, welches ja in sich schon eine Abtastmethodik enthält.
Stichwort halton sequence.

NVIDIA schreibt für DLSS minimum 16 Jitter- Phasen bei einem präferierten Standard von 32 Phasen vor.
Da muss sich AMD noch hinkämpfen. Mit der aktuellen Hardwaregeneration noch undenkbar.

Das ist auch das, was ich meine, wenn ich schreibe, dass AMD da noch ein Stückchen zu gehen hat, bevor sie an die aktuelle DLSS 2.x Leistung auf Tensor- Gestützten System anstinken können.
Implementationsfehler mal außen vorgelassen.
Ergänzung ()

Czk666 schrieb:
Das aa ist doch auch in deathloop viel besser mit fsr 2? Ich finde das Bild viel ruhiger und besser.
Naja- Auch hier begegnen wir ja dem Umstand, den viele nicht nachvollziehen könenn, dass FSR in Summe auch ein "besseres", beruhigteres Bild als nativ darstellen kann. Auch das Aliasing ist als Nebeneffekt des letztendlich stattfindenen Downsamplings gefälliger....
Ergänzung ()

Diablokiller999 schrieb:
andere Einheiten zu entlasten, die dann anderen Aufgaben nach gehen können. So oder so, finde ich beide Ansätze spannend, aber der AMD weg ist bedeutend eleganter.
mit solchen Aussagen muss ich immer ein wenig kämpfen...
Den schlechteren Output im Algorithmus bei weniger Rechenleistung "eleganter"? Ist das nicht eher bei pixel- verarbeitenden Matrixoperationen die zwingende Folge?
Ergänzung ()

Matthias80 schrieb:
Gewagte These
Auch in sich nicht logisch. Schlicht falsch weil ja ein anderer Ansatz gegangen wurde.
Was für ein anderer Ansatz soll das sein?

Matthias80 schrieb:
Was ich meinte. Nix ausgedacht was extra kostet und dadurch extra bezahlt werden muss. Ein extra mudul für monitore auch ein schönes Beispiel.
Das extra Modul für Monitore hat ja auch einen erweiterten Arbeitsbereich. So what?
Matthias80 schrieb:
Ne Grafikkarte berechnet weiterhin nur die Grafik. Nicht mehr und nicht weniger. Wenn mit jeder zukünftigen gen die uvp immer weiter steigen weil sich immer neuer (sinnloser) Quatsch einfallen gelassen wird...
RT und temporales Supersampling hältst Du für sinnlosen Quatsch?
Wieso sollte man dann überhaupt noch leistungsfähigere Grafikkarten bauen?
Alle modernen Budgetschluckenden Rastereffekte gehen in Richtung des stochastischen Renderns und versuchen sich in einer Annäherung von Raytracing.....
Matthias80 schrieb:
Wo kommen wir da hin?
Vielleicht sollten sie dann gaming und wie sie es auch immer nennen, strikter trennen. Weil ein Spieler will nur das sein Spiel ordentlich läuft.
Und das kaum ohne gesteigerte Ansprüche an die Grafik?
Matthias80 schrieb:
Schon klar. Denke ist jetzt offensichtlich das beide ne gute Basis haben.
Mmh Wenn es nicht an den Entwicklern mit hängt. Dann versteh ich nicht den Einwand. Es ist ja erst das erste und einzige Spiel. Abwarten. Wenn das so wäre wie du sagst, würde das bedeuten es kann nur besser werden. Es kann kein Spiel kommen was schlechter funktioniert. 🤔
Die Basis könnte gerade in aktuellen Zeiten nicht unterschiedlicher sein. Während NVIDIA sich in den letzten Generationen quasi nur auf den neuen Kram stürzt, geht AMD weiterhin den "klassischen" Weg.
Das genau macht ja gerade die Vergleichbarkeit inkl. der Hardwareauswahl für den User so schwierig.

Matthias80 schrieb:
Ich meinte.
Ding die tatsächlich was bringen.
RT naja irgendwann...
Das zählt halt spätestens seit Control nicht mehr. Seit Metro Exodus Enhanced ist dieses Argument völlig vom Tisch.
Es gibt nachwievor kein Spiel, was letzterem in Sachen Realtime- Grafik inkl. dynamischer Beleuchtung bzw. Rendertechnik auch nur annähernd das Wasser reichen kann.
Matthias80 schrieb:
Der Rest... Nur hype. Braucht auch keiner wirklich. Oder? Ich würde es nicht vermissen. Gibt ja schon ewig Lösungen der jeweiligen engine. Oder halt nicht.

Mfg
Ja- Es geht immer alles schlechter aber dafür schneller. Das ist das Grundprinzip des Raster- Fakes......
Braucht es überhaupt Computerspiele im Allgemeinen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Nochmal am 4k TV getestet.1080p mit fsr2 sieht besser aus als 4k nativ. Verrückt.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
FPS schön und gut.. Wieviele MS mehr lag kommen denn bei dem Spaß dazu?
Das wäre mal interessant zu wissen.
 
Payne19 schrieb:
FPS schön und gut.. Wieviele MS mehr lag kommen denn bei dem Spaß dazu?
Das wäre mal interessant zu wissen.

Mit höheren FPS dank FSR / DLSS solltest du weniger Input Lag haben. Siehe verlinktes Video, das ist zwar noch mit fsr 1.0, aber wenn ich mich nicht irre, sollte es mit fsr 2.0 genauso sein - lasse mich da aber gerne korrigieren. ;)

 
  • Gefällt mir
Reaktionen: derin
@Wolfgang

Was für ein Unterschied! Und zwar immer. Egal bei welcher Auflösung, egal bei welcher QualitätseinstellungÖ AMDs


Bitte. 😚
 
  • Gefällt mir
Reaktionen: Wolfgang
.Sentinel. schrieb:
Was für ein anderer Ansatz soll das sein?
Na wenn man den Marketing geblubber glauben darf. Nix gelogen ist. Schon mal nix mit extra entwickelter Hardware.

.Sentinel. schrieb:
leistungsfähigere
Leistung.
Oder gehyptes irgendwas?! Wo sich vielleicht durchsetzt... Tatsächlich etwas Fortschritt bringt. Oder sang und klanglos in der Versenkung verschwindet. Wie so oft... Von den Kinderkrankheiten mal gabz abgesehen...


.Sentinel. schrieb:
gesteigerte Ansprüche
Genug fps sind doch auch was. Blender grafikeffekte die im Spiel kaum auffallen. Oder hier wo einzelbilder zerpflückt werden.


.Sentinel. schrieb:
erweiterten Arbeitsbereich
Erweiterten einnahmebereich meinst du damit ne?


.Sentinel. schrieb:
Basis könnte gerade in aktuellen Zeiten nicht unterschiedlicher sein
Ich bezog mich da nur auf die aktuelle Vergleichbarkeit der beiden Lösungen DLSS und FSR.


.Sentinel. schrieb:
Wurde leider nur dafür gemacht und ist so mega schlecht...

.Sentinel. schrieb:
Bin ich bei dir. Bleibt hoffentlich nicht die berühmte Ausnahme!


.Sentinel. schrieb:
Braucht es überhaupt Computerspiele im Allgemeinen?
Weiiiit hergeholt jetzt. Ich sag mal ja. Weil ist ja unser hobby. Also zocken bei mir. Bei anderen neuerdings einzelbilder analysieren.

Mfg
 
  • Gefällt mir
Reaktionen: Inxession und Eller
Taxxor schrieb:
Um den Algorithmus zu beschleunigen. Dadurch können RTX Karten mit DLSS mehr Samples für jeden Frame zur Rekonstruktion nutzen.
Und je mehr vorherige Frames man zur Verfügung hat, desto eher sehen solche feinen Details wie dünne Kabel auch danach noch korrekt aus.
Würde FSR 2.0 genau so viele Samples nutzen, wäre der Performancevorteil wohl deutlich geringer, dafür aber auch die Qualität besser.

Ich bin selbst nicht so tief drin, deshalb @.Sentinel. bitte korrigieren, wenn ich Mist schreibe, aber ich denke mal mit größerer Samplemenge steigt auch gleichzeitig die Wahrscheinlichkeit, dass der Algorithmus mal mehr Pixel beibehält, die er eigentlich hätte verwerfen sollen. Das begünstigt dann Ghosting, weshalb es umso wichtiger ist, den Algorithmus gut anzupassen, bei DLSS eben durch ML, bei FSR von Hand.
OK wie ich sehe funktioniert DLSS ganz anders als gedacht. Vielen Dank für deine Erklärungen, das waren jetzt sehr interessante Informationen. Das zeigt auch ich hätte mich im Vorhinein dann doch genauer mit dieser Technik auseinandersetzen sollen. Ich werde mich auf jeden Fall näher mit dem Thema beschäftigen.
 
  • Gefällt mir
Reaktionen: rumpeLson
Ich würde gerne mal wissen wie eine RX580/590 mit FSR 2.0 performt. Es heißt ja das FSR 2.0 mehr GPU-Power brauch weil es ohne die Tensor-Cores auskommen muss.

Mein persönliches Fazit: Schön das AMD am Ball bleibt und auch ihre Upscaling-Technik weiter verbessern.
Aber im Großen und Ganzen ist das Native Bild noch immer die bessere Wahl....also verdammt....wann kommt die RX 6800 XT endlich in ne angenehme Preisregion... :D
 
Zurück
Oben