Test FidelityFX Super Resolution im Test: AMD FSR 2.0, 1.0 und Nvidia DLSS im Vergleich

Taxxor schrieb:
Im Test zum Spiel wurde doch nur 4K mit RT getestet und da liegt die 3080 31% vor der 6800XT, hier sind es 37%, was an Treiberupdates und Patches liegen kann.
oh man, wer lesen kann... ja danke!
 
W0dan schrieb:
Du bist vermutlich davon ausgegangen, dass FSR Latenz zur gesamten Latenzkette addiert, wie es eine Maus oder ein Monitor macht, aber das ergibt hinsichtlich der Funktionsweise von FSR und der Tatsache, das sich mit höheren FPS ja zugleich die Latenz reduziert, überhaupt keinen Sinn.
Genau davon bin ich ausgegangen.
Danke für die ausführliche Antwort :daumen:
 
Find ich mega!
So bekommt die 1080 TI wieder einen Boost.
Da ich rtx nie genutzt habe mit rtx karte is das eine feine Sache
 
.Sentinel. schrieb:
Wie immer wenn kein weiter melken möglich ist... Dann muss man sich öffnen um nicht wieder ins hintertreffen zu geraten weil man an seinem proprietären Mist festhält. Deine Logik ist manchmal...

Mfg
 
foo_1337 schrieb:
Du sprichst fälschlicherweise von "KI" und wagst dann die steile These, dass dies ein typischer Nachteil sei? Du solltest dich ggf. nochmal in NN einlesen und die Aussage überdenken :)
Du hast natürlich Recht, ich habe mich mit dem Thema DLSS viel zu wenig beschäftigt um eine derartige Aussage treffen zu können. Das war fahrlässig. Mittlerweile konnte ich aber einige interessante Fakten über die Technologie von anderen Forenmitgliedern in Erfahrung bringen.
 
  • Gefällt mir
Reaktionen: rumpeLson, Laphonso und foo_1337
Matthias80 schrieb:
Wie immer wenn kein weiter melken möglich ist...
Schon allein der Ausdruck "melken", so als ob man Vieh sei. Als würde man hinters Licht geführt und ausgenommen. Du stellst es so dar, als ob wir alle hilflose Konsumopfer wären und alles kaufen und schlucken MÜSSEN, was man uns vorsetzt.

Es gibt heutzutage Tests, in welchen sich jeder mündige Bürger informieren kann, für was er sein Geld ausgeben will.
Dann kann jeder die Entscheidung für sich abwägen, ob sich das Produkt der Begierde für ihn lohnt oder eben auch nicht.

Es gibt kein gottgegebenes Recht auf Grafikkarten oder auf Software oder auf irgendwas. Da stecken Menschen dahinter, die sowas entwickeln.
Die haben Familien zu ernhähren. Wenn Du also in eine Sache viel Personal und Know- How steckst, dann steht es Dir auch zu Bedingungen zu stellen unter welchen Voraussetzungen Du eine Nutzung erlaubst.
Und das ist in keinem Falle verwerflich. Du schuldest nämlich keine was. Du machst ein Angebot und fertig.

Matthias80 schrieb:
Dann muss man sich öffnen um nicht wieder ins hintertreffen zu geraten weil man an seinem proprietären Mist festhält. Deine Logik ist manchmal...
Das, was Du hier wieder als ganz besonders herausstellst ist Usus in der IT- Branche. Der Wechsel von Closed- auf Open Source wird oft genug vollzogen, wenn auch aus anderen Gründe und Motiven, wie Du sie unterstellst.

Ohne proprietären Mist, wie Du es nennst, wäre der IT Markt innerhalb kürzester Zeit kaputt.
Geld treibt den Markt an und damit die Bestrebung, sich vom Mitbewerber abzuheben, um durch Alleinstellungsmerkmale eine höhere Marktdurchdringung erreichen zu können.

Diese Alleinstellungsmerkmale wirft man der Konkurrenz doch nicht "offen" vor die Füße.
Ohne diese Haupttriebkraft in Sachen Innovation ist es Essig mit risikobehafteter Weiterentwicklung.

AMD bringt FSR 2 nicht, weil es die guten sind, sondern weil sie so intelligent sind zu sehen, dass dieses Feature zur Bedrohung für die eigene Konkurrenzfähigkeit wurde.

Dem Normalnutzer ist es nämlich egal, wie toll leistungsfähig Hardware XY lt. Specs ist.
Da zählt nur das, was in letzter Konsequenz über den Bildschirm flimmert.
Ja- Der berühmte längste Balken. Wie der zustande kommt interessiert niemanden.
Ob closed source, open source, ob mit tensor- cores oder auf shadern. Völlig egal- Hauptsache Leistung.

Lass doch hier bitte mal zumindest ein Mindestmaß an Realismus walten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, Loopman, Moetown und 5 andere
.Sentinel. schrieb:
Testen das was da ist...

Das die ganz ganz oben uns nur als Endverbraucher sehen. Liegt in der Natur der Sache. Denen kommen jünger die kostenlos etwas hypen gerade recht.
Wenn nix los ist, klammert man sich halt an die dünnsten Strohhalme die da sind.
Das ganze Thema hier ist so mega langweilig... Einige hier haben sich auf Standbilder eingeschossen... Das sagt doch wohl alles. Ich vermisse die alten Zeiten wo man einfach nur Spaß am zocken hatte.

Mfg
Ergänzung ()

.Sentinel. schrieb:
Alleinstellungsmerkmale
Mmh geht auch manchmal anders...
Für mich fühlt sich das ehr so an.
Es wird immer mehr geschaut wo man eine künstliche Barriere hochziehen kann. Um Argumente für mehr zu erziehenden Gewinn zu haben.

Z. B. Intel die bestimmte Funktionen dann nur über zusatz Lizenzen freigegeben haben. Dabei wurde die Hardware ja schon teuer bezahlt. Die Alleinstellungsmerkmale würden ja schon reichen sein Produkt besser zu platzieren als die Konkurrenz. Es Deswegen immer teurer und teurer zu machen! Das da keiner am hugertuch nagt zeigen die Zahlen!
Oder Apple in ihrer grünen Werbung. Zahl hört sich toll an. Sie tun was für eine bessere Zukunft. Aber wenn man genau hinschaut. Sieht man das sie es nicht ernst meinen! 0,0001% zu investieren ist keine ansage!

Mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und .Sentinel.
.Sentinel. schrieb:
AMD bringt FSR 2 nicht, weil es die guten sind, sondern weil sie so intelligent sind zu sehen, dass dieses Feature zur Bedrohung für die eigene Konkurrenzfähigkeit wurde.

Dem Normalnutzer ist es nämlich egal, wie toll leistungsfähig Hardware XY lt. Specs ist.
Da zählt nur das, was in letzter Konsequenz über den Bildschirm flimmert.
Und was sagt uns das? Wir "Normalnutzer" sind am Ende auch nicht die "Guten"!
 
Das ist Kapitalismus. Firma x hat einen Produktionsvorteil und macht Gewinne solange bis andere nachziehen.
 
Matthias80 schrieb:
Testen das was da ist...

Das die ganz ganz oben uns nur als Endverbraucher sehen. Liegt in der Natur der Sache.
Sehe ich auch so. Ist halt der Schnitt durch alle Arten und Abarten der Menschheit :)
Die da oben haben eben nur Zahlen im Kopf.

Das darf aber meines Erachtens nicht davon ablenken, dass es bei denen da unten und zwar Unternehmensunabhängig tatsächlich Leute mit Herzblut, Know How, Innovationskraft und dem Vorsatz unterwegs sind, die ihre Sache gut machen wollen. Und auch wollen, dass der User Freude hat.

Matthias80 schrieb:
Denen kommen jünger die kostenlos etwas hypen gerade recht.
Ja- Die wissen natürlich auch wie man Begehrlichkeiten weckt. Gehört aber auch irgendwie zum Sales Business dazu.

Matthias80 schrieb:
Wenn nix los ist, klammert man sich halt an die dünnsten Strohhalme die da sind.
Das ganze Thema hier ist so mega langweilig... Einige hier haben sich auf Standbilder eingeschossen... Das sagt doch wohl alles. Ich vermisse die alten Zeiten wo man einfach nur Spaß am zocken hatte.
This!! Das ist genau meine Meinung. Diese Pixelspying und das eigene Abhängigmachen des Spielspaßes von irgendwelchen Werten die ein Afterburner ausspuckt, ist für mich vollkommen unverständlich.

DSL2 und FSR2 sind inzwischen good enough. Das Jammern diesbezüglich tritt dort meines Erachtens auf ganz hohem Niveau auf.

Und ja. Ich sehe ein, dass es einem ein gutes Gefühl vermitteln kann, dass 200 FPS auf dem Counter stehen, aber es geht hier ja teilweise so weit, dass es hier Leute gibt, die steif und fest behaupten, dass alles was nicht mindestens 60FPS liefert, als unspielbar gelten muss.

Matthias80 schrieb:
Mmh geht auch manchmal anders...
Für mich fühlt sich das ehr so an.
Es wird immer mehr geschaut wo man eine künstliche Barriere hochziehen kann. Um Argumente für mehr zu erziehenden Gewinn zu haben.
Nur hat man in dem Fall ja keine künstliche Barriere hochgezogen. Bei DLSS war NVIDIA schlichtweg der erste. Und für die Abwicklung haben Sie eben ihre dedizierte Matrixeinheiten vorgesehen, weil sie vermuteten, dass diese dafür genügend Rechenkraft bereitstellen können.

In dieser Situation waren sie gezwungen mit irgendwas proprietärem auf den Markt zu gehen, schlicht, weil es eine vergleichbare Technik in Sachen Software so nicht gab und auch entsprechende Hardwareeinheiten nicht zur Verfügung standen.

Es gab keinen Standard und auch keine nutzbare Hardwareplattform der Konkurrenz.

Matthias80 schrieb:
Z. B. Intel die bestimmte Funktionen dann nur über zusatz Lizenzen freigegeben haben. Dabei wurde die Hardware ja schon teuer bezahlt.
Ja- Aber das obliegt der eigenen Entscheidung, ob man diese Funktionen dann nutzen will.
Man ist ja vorher über den Preisumfang informiert.

Matthias80 schrieb:
Die Alleinstellungsmerkmale würden ja schon reichen sein Produkt besser zu platzieren als die Konkurrenz. Es Deswegen immer teurer und teurer zu machen! Das da keiner am hugertuch nagt zeigen die Zahlen!
Das Gesetz des Marktes. Das muss man nicht unbedingt gutheissen. Man muss aber auch so fair sein zu sehen, dass wenn ein Produkt mal floppen sollte, gigantische Summen abzuschreiben sind.

Die Anlauf- Forschungs- und Produktionskosten steigen auch aufgrund immanenter physikalischer Grenzen ins Unermessliche.
Matthias80 schrieb:
Oder Apple in ihrer grünen Werbung. Zahl hört sich toll an. Sie tun was für eine bessere Zkunft. Aber wenn man genau hinschaut. Sieht man das sie es nicht ernst meinen! 0,0001% zu investieren ist keine ansage!
Wir liegen gar nicht so weit auseinander....
Ergänzung ()

McSchott schrieb:
Und was sagt uns das? Wir "Normalnutzer" sind am Ende auch nicht die "Guten"!
Leider nein. Wir sind letztendlich die gedrehte Phase der Unternehmen.
Alles raffen, alles möglichst kostenlos haben wollen, nie genug kriegen, wenig wertschätzen.
Wir fachen z.B. selbst diverse Hypetrains an und beschuldigen dann die Firma, wenn Produkt XY diesem nicht gerecht wird. Gerade AMD tut mir da des Öfteren leid, weil sie eigentlich ziemlich koservativ kommunizieren.
Die Fans hängen sich dann rein und dann gibt es eine Enttäuschung, die völlig unnötig gewesen wäre.

Die Erwartungshaltungen wachsen im Bereich Konsum ins Unermessliche....

Aber das gleitet schon ziemlich in eine philosophische Diskussion ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fuchiii, Moetown, Matthias80 und eine weitere Person
Wird das auch für konsolen kommen? Wäre schon geil mit wenig qualirätsverlust mehr perfomance zu bekommen
 
Die Konsolen nutzen schon ewig ihre eigenen Upscaling Techniken, FSR 2.0 ist bisher zumindest nur für DX12 vorgesehen, mit Vulkan in Planung. Über DX11 hört man bisher noch gar nichts.
Also auf der Xbox würde es wohl direkt laufen, bei der Playstation sieht das anders aus, keine Ahnung ob man hier auch eine Integration in deren API verhandelt hat
 
  • Gefällt mir
Reaktionen: leonM
@csch92
Bestimmt, aktuell ist es jedoch nur für Directx12 veröffentlicht, somit wäre für die Xbox jetzt schon bei neuen Spielen machbar. Mal gucken wann Vulkan... kommt, denn dann könnte die Playstation dies auch erhalten
 
Zumindest ist es für Developer für Xbox verfügbar wenn ich den Satz richtig interpretiere.

„A GDKX sample will also be made available to registered Xbox® developers.“
 
.Sentinel. schrieb:
Ja ganz Easy- Nachdem man die Konkurrenz mal einfach mal 4 Jahre lang forschen, beobachten und verbessern lässt, sich auf der GDC Errungenschaften und Funktionsweise erklären lässt und dann noch geleakten Quellcode zur Verfügung hat....
FSR 2.0 funktioniert aber ziemlich anders als DLSS 2.X, es wurde insbesondere grundlegend anders gebaut.
Das, was AMD geholfen hat, ist sicherlich der Vergleich mit den Ergebnissen von DLSS 2.X --- da hat es derjenige, der später kommt, immer leichter.
 
Auch auf die Gefahr hin mich unbeliebt zu machen. Aber ich habe bisher in noch keinem Titel mit DLSS ein erträgliches Ergebnis gesehen. In Metro Exodus oder Shadow of Tomb raider wird das Bild so extrem unscharf in 1440p. Da kann ich gar nicht verstehen wie man so feiern kann. Dabei Metro Exodus eh schon so ein Titel wo man teils High Rey Texturen suchen darf.
Bevor ich sowas nutze, gehe ich lieber mit den Einstellungen runter oder verzichte auf das Raytracing. Die Einbußen sind einfach zu heftig. Da bringen mir die 20-30 FPS mehr in Metro oder Tomb Raider gar nichts wenns an allen Ecken und Kanten unerträglich flimmert und teils auch einfach nur unscharf ist.
In Doom Eternal ist der Unterschied genauso heftig. Ich habe in 1080p auf dem 1440p Monitor ein Besseres Bild als wenn ich DLSS nutzen würde. Das ist zwar auch nicht so scharf, dafür flimmert nix.
Selbst an der heimischen 4K Glotze mit ausreichend Abstand fällt das noch auf.
God of War sah damit so unscharf aus, daß ich auch hier lieber die Regler angepasst habe.

Der heilige Gral ist DLSS längst nicht ;)
Dann lieber Auflösung runter oder Details weg, dafür in nativer Auflösung zocken.
Und wenn DLSS/FSR laut einiger Foristen hier quasi als Voraussetzung für Raytracing gesehen wird, dann warte ich lieber bis die Rohleistung passt.
 
  • Gefällt mir
Reaktionen: Benni82 und AssembIer
n3xtrem schrieb:
Auch auf die Gefahr hin mich unbeliebt zu machen. Aber ich habe bisher in noch keinem Titel mit DLSS ein erträgliches Ergebnis gesehen. ...

n3xtrem schrieb:
Der heilige Gral ist DLSS längst nicht ;)

Das klingt ja sehr ... unterschiedlich. Ich würde der zweiten Aussage eher zustimmen.

Leider erwähnt der Artikel den größten Nachteil von FSR2 nicht. OpenFSR ist damit zwar nicht gestorben, wird aber weitestgehend sinnfrei.
Bisher konnte man wahllos einen VR Titel mit OpenVR picken, der zu 99% unterstützt wurde und bei dem man , je nach vorhandener Hardware, zumindest eine 40-60% Chance hatte durch OpenFSR einen Vorteil zu haben.
Da kommt jetzt ins Spiel das Titel die ohne schnell genug laufen, mit OpenFSR gern verwaschen/pixelig vor sich hin flimmern, aber bei Titeln die ansonsten zu langsam laufen, kommt man stabil auf die magischen 80-90 FPS, das macht den Verlust an Qualität dann einigermaßen wett.

Das jede Reduzierung von Details einen Verlust und fast jede eine Verschlechterung des Originals bedeutet, ist nur logisch. Leider habe ich auch die Erfahrung gemacht, das Titel die es am meisten nötig hätten, durch FSR/DLSS zu stark verlieren. Bestes Beispiel, NMS.
Das Spiel ist ohne schnelle RTX Karte unspielbar lahm in VR, sieht mit DLSS/FSR richtig Scheisse aus und wird dabei nicht so viel schneller wie es bei einer GTX nötig wäre. Auf ner AMD (getestet mit der 6900XT) läuft es eh wie ein Sack Nüsse.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AssembIer
vander schrieb:
Das jede Reduzierung von Details einen Verlust und fast jede eine Verschlechterung des Originals bedeutet, ist nur logisch.
Das ist zwangsläufig die Folge. Die Frage ist immer eine der Wahrnehmungsschwelle.
Auch ein MP3 verschlechtert das Original. Nur im Normalfall eben so, dass der Verlust unterhalb der Wahrnehmungsschwelle liegt.
Als Benefit erhält man aber erheblich kleinere Dateien.

Das Interessante am temporal gestützten Up-/bzw. Supersampling ist aber ja gerade, dass es ein Frame #1 eine zwar teils deutlich geringere Pixelbasis gibt, diese aber ab Frame 3 bis 4 bereits das Native, immer wieder von vorn 0 an gerasterte Bild, an Informations bzw- Pixelmenge schlägt.

Man arbeitet also nicht mit reduzierten Details, sondern zu 99,9% mit deutlich mehr Bildinformation als beim "nativen" Rastern.

Das ursprüngliche native Rastern ist sogar ein einziger Algorithmus zur Reduzierung von Details, weil Du eine quasi unendlich Detaillierte, vektorisierte Welt in irgendwelche Pixelmasken presst, was mit erheblichen Bildfehlern einhergeht (Aliasing usw.).
Dem versucht man dort bereits mit einer ganzen Batterie an Filtern entgegenzutreten.

vander schrieb:
Leider habe ich auch die Erfahrung gemacht, das Titel die es am meisten nötig hätten, durch FSR/DLSS zu stark verlieren. Bestes Beispiel, NMS.
Nimm in NMS das hier https://www.techpowerup.com/download/nvidia-dlss-dll/ in der Version 2.3.9
vander schrieb:
Das Spiel ist ohne schnelle RTX Karte unspielbar lahm in VR, sieht mit DLSS/FSR richtig Scheisse aus und wird dabei nicht so viel schneller wie es bei einer GTX nötig wäre. Auf ner AMD (getestet mit der 6900XT) läuft es eh wie ein Sack Nüsse.
Der große Vorteil an DLSS ist, dass es stetig besser wird. Einfach entsprechende DLL im Hauptverzeichnis tauschen und schon gibts bessere Bildqualität.

Ist bei FSR2 nicht anders. Einfach ein bisschen abwarten und verbesserte Proxy- Bibliothek einsetzen.
 
.Sentinel. schrieb:
"Der große Vorteil an DLSS ist, dass es stetig besser wird. Einfach entsprechende DLL im Hauptverzeichnis tauschen und schon gibts bessere Bildqualität."
DLSS/FSR ist ein Papiertiger. Nicht mehr, nicht weniger.
Das Ergebnis passt vorne und hinten nicht.
Da wo es absolut nötig wäre wie im Notebook mit IGPU ist das Ergebnis Grausam. Es schaut dort teilweise so grottig aus wie früher die ersten LCD Monitor wenn diese nicht nativ oder in krummer Auflösung befeuert wurden.

Und da wo es eine sinnvolle Ergänzung sein könnte, versaut man sich schlicht das Bild für ne Hand voll FPS mehr.

Wer die Hardware hat um nativ in 4k zu zocken, dem tuts weniger weh von Ultra auf High Details zu schalten als DLSS zu nutzen.
Wer in 4k seine 40 - 60 FPS+ in Ultra schafft, wird doch nicht so blöd sein und sich das Bild zugunsten von 20 FPS mehr versauen. Dann lieber Regler runter.
Je nach Monitor /TV kann das Bild in 4k hochskaliert trotz nur "1440p" Signal anliegend erheblich besser sein.

Keine Ahnung ob Nvidia's KI gerade Urlaub macht, aber Soooo dolle scheint das ja nicht zu funktionieren mit DLSS.
Dann lieber die Opensource AMD Version die auch auf nicht AMD Hardware arbeitet.

Aber auch hier gilt, lieber Details und/ oder Auflösung runter bietet klar das bessere Erlebnis.

Edit: Fehler korrigiert
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben