Test Edge Of Eternity im Test: AMD FSR vs. Nvidia DLSS im direkten Vergleich

.Sentinel. schrieb:
Der Ausschnitt entspricht größentechnisch jenen der unkomprimierten 4K PNGs.
Hier FSR vom unkomprimierten 4K ausgeschnitten:
Anhang anzeigen 1113791

Und hier vom ersten Post:

Anhang anzeigen 1113794

Passt also alles...
Ok, das passt. Nur so ganz ohne Bezug ist das natürlich auch sinnfrei. Für die 4K User hier bräuchten wir dann noch Ausschnitte von 8k Bilder, damit die auch mal die DPI erfahrung machen.
Also für jeden mit kleiner als 4K Monitor sind diese Ausschnmitte schlicht nichtssagend bzw sie sehen die idR deutlich niedrigere DPI ihres Monitors.
 
Zuletzt bearbeitet:
aappleaday schrieb:
Leider ist das Spiel unteres Mittelmaß
Kannst du evtl. mehr Infos geben warum? Überlege schon etwas länger es mir zuzulegen.
 
Ned Flanders schrieb:
mal eben 30-50% Performance rausholt ohne das man dramatische visuelle Abstriche machen muss schon nachvollziehen.
Witzig, genau das ließ man für DLSS nicht gelten. Einfach mal die "pre FSR" DLSS Threads lesen.
Das wurde der fps Boost, sogar bei DLSS 2.0 Titeln als irrelevant abgetan,weil das ja Bildqualität kostet.

(Ich spiele gerade Death Stranding UWQHD maxed auf 120 fps im Monitorlimit und muss darüber wieder lachen. DLSS 2 ist in dem Game einfach nur irre.)

Was bei Nvidia Versagen war, ist bei AMD nun eine nette Errungenschaft und erhält Lob .
Die offensichtlich unterschiedlichen Maßstäbe pro AMD und Anti Nvidia in diesem Forum sind stets erheiternd ;)

Was ich nur sehe ist dies: Der "DLSS Killer" wurde letztlich - wieder einmal mehr - im Realitatätcheck entzaubert.

Ich denke, dass wir bei FSR V2 und DLSS 3 zum RNDA 3 und Ampere 2 Release (den Satz versteht kein Normalo, aber egal :D) eine deutlichere Weichenstellung erhalten werden.

Danke an das CB Team für diesen Test und die Zeit!
 
  • Gefällt mir
Reaktionen: Rag9000, tollertyp und Esenel
.Sentinel. schrieb:
Nur leider interessieren sich offenbar die wenigsten für die Leitfäden und Tipps, die man zur Integration bekommt...
Naja, das ist in der Entwicklerwelt ja wahrhaftig nix Neues, oder?
Ergänzung ()

.Sentinel. schrieb:
aber so darf das normalerweise eigentlich garnicht in die freie Wildbahn
Build fast, deploy faster, fix upstream ...
Schöne neue Welt. Yay!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tollertyp, .Sentinel. und Laphonso
Laphonso schrieb:
Was bei Nvidia Versagen war, ist bei AMD nun eine nette Errungenschaft und erhält Lob .
Die offensichtlich unterschiedlichen Maßstäbe pro AMD und Anti Nvidia in diesem Forum sind stets erheiternd ;)

Was ich nur sehe ist dies: Der "DLSS Killer" wurde letztlich - wieder einmal mehr - im Realitatätcheck entzaubert.

Ich denke, dass wir bei FSR V2 und DLSS 3 zum RNDA 3 und Ampere 2 Release (den Satz versteht kein Normalo, aber egal :D) eine deutlichere Weichenstellung erhalten werden.

Danke an das CB Team für diesen Test und die Zeit!

Also erst vergleichst du Äpfel mit Birnen. DLSS ist und war auf lediglich mittlerweile 2 Generationen begrenzt. Es ist nunmal ein Unterschied, ob lediglich neue performante Karten davon profitieren, oder grundsätzlich alle Karten die im Umlauf sind.

Niemand hat behauptet das FSR der DLSS Killer wird. Das wird zwar gerne von dir hier so propagiert, aber stimmen tut es deswegen nicht.

DLSS kannst du im Realitätscheck übrigens genauso entzaubern, sieht man ja auch hier wieder im Test. Und es gibt, trotz der begrenzten Anzahl an Spielen mit DLSS leider mehr als genug Beispiele, wo man feststellen muss, dass auch DLSS nicht der heilige Gral ist, den du uns hier in jedem deiner Posts immer wieder verkaufen willst.

Grundsätzlich finde ich es interessant, wo doch immer die Einfachheit der Integrierung von DLSS hier im Forum gelobt wurde, dass wir trotzdem so häufig schlechte Implementationen antreffen.
 
  • Gefällt mir
Reaktionen: ArrakisSand und Floppes
@aldaric
Aber man muss schon zugestehen, dass das Problem von DLSS in diesem Test zu 100% in der Implementierung zu suchen ist. Ein DLSS mit individuellem Schärferegler und korrekter Mipmap Geschichte würde beinahe über jeden Zweifel erhaben sein.
 
Das Problem bei diesen schlechteren DLSS Implementierungen ist ja, dass man einige Aspekte ja sogar als User selbst fixen kann. Z.B. LOD Bias im Inspector anpassen.

Dass Entwickler sowas übersehen ist einfach nur lächerlich, da kann die Implementierung noch so einfach sein, bei solchen Versäumnissen hilft halt alles nix.

Trotzdem ist es natürlich deutlich komplexer als FSR zu integrieren, da das Spiel ja auch Motion Vectors an DLSS weitergeben muss. (Idealerweise kann das Spiel also bereits TAA)
 
.Sentinel. schrieb:
Bei DLSS muss man, wenn es nach Leitfaden von NVIDIA richtig integriert ist, nicht nachschärfen. Es darf schlichtweg nicht vermatschen, wenn mans richtig macht.
Nur leider interessieren sich offenbar die wenigsten für die Leitfäden und Tipps, die man zur Integration bekommt...
Ne, ne, neee ...

So einfach ist das nicht.

Nvidia hat RT & DLSS auf den Markt gebracht, und kannte davor nur die Ergebnisse aus "Laborbedingungen". Aus diesen Labormessungen sind dann die Leitfäden entstanden.

Die Technologie muss sich noch als sinnvoll er/beweisen.

Aktuell bedeutet RT & DLSS, und auch alles was diesbezüglich von AMD kommt. einen immens erhöhten Entwicklungsaufwand.

Wenn dabei mit viel Mehraufwand nur "wir können uns darüber unterhalten ob a, b oder c besser aussieht" entsteht, ist die Technologie noch nicht reif.
 
.Sentinel. schrieb:
Ersteres hatte NVIDIA schon seit Jahren per Treiber für alle! Spiele und Karten aktivierbar. Da hat aber kein Hahn danach gekräht.
Ist erst jetzt der heiße Scheiss, wo AMD Jahre später die fast gleiche Lösung auf den Markt wirft....
Und hättest du es Mal direkt mit FSR verglichen dann wüsstest warum nach Nvidias Lösung kein Hahn gekräht hat.
Sry aber das kann doch nicht sein Ernst sein? Was die Technik angeht kann es vielleicht sein dass es auf dem gleichen Prinzip beruht aber das Ergebnis ist bei FSR viel besser
 
aldaric schrieb:
Niemand hat behauptet das FSR der DLSS Killer wird.
Das ist akut selektive Wahrnehmung, werter aldaric ;) Ich erspare Dir das Verlinken unzähliger Artikel aus der Fachpresse, Foren und social media. Google mal nach "FSR could be DLSS Killer" oder so etwas.
Das Narrativ war im Umlauf, auch hier im Forum.

Du selbst warst ja auch einer der wenigen, der des Besseren belehrt wurde in der Auffassung, dass DLSS nicht ein besseres Ergebnis als nativ haben könnte. Was nun auch mehrfach gezeigt wurde, es gibt genug Szenen und Momente, da ist die DLSS Rekonstruktion dem nativen Bildmaterial überlegen, siehe entfernte Schriftzüge, Stromleitungen am Horizont und Details.
Sogar Digital Foundry hat dazu Videos.

Die Rekonstruktion leistet mehr als der FSR Filter. Wie @rumpeLson sagte, ich verweise da auf Geforce Experience und ALT+F3 und das Nachschärfen, und dann hat sich das direkt erledigt mit "ah da erkennt man DLSS".
Die Implementierung von DLSS in F2021 als Negativbeispiel ist ein F2021 Problem, keines von DLSS.
Wenn ich einen C63 AMG Motor in einen Opel Crossland baue, funktionert das alles nicht wie im Zielmodell.
Ist kein Problem des AMG Motors. Das Mittel muss schon sauber und korrekt genutzt werden. Ärgerlich, dass es zu selten passiert, das sorgt für den Ruf, den DLSS hat.
In Death Stranding und Cyberpunk finde ich es sauber umgesetzt.

Das Gute an FSR ist, dass sie branding agnostisch ist.
Aber FSR fehlt leider in sämtlichen Titeln, in denen wir DLSS haben oder dort, wo wir die fps brauchen.
Warten wir nochmal die 1-2 Jahre jetzt ab.
Vielleicht erkennen (sic!) manche dann, warum die Rekonstruktion so wertvoll ist, da kommen ja eine Reihe Raytracing und fps burner Titel.

@.Sentinel. hat ja wiederholt skizziert, dass das auch ein Lerneffekt für die devs ist. Das ganze Thema motion vectors und Texturauflösung bei der DLSS Implementation scheint - trotz Nvidia Vorgaben - immer wieder ein Stolperstein zu sein.
Hier ist also noch viel Luft, im Gegensatz zu FSR. Warum: Weil das Rekonstruktionsmodell mehr rausholen kann.
In den besten Fällen (In Nioh 2 musste man 400 % (!) zoomen, um Unterschiede festzustellen) hat DLSS fps Boost quasi ohne Bildqualitätsverluste.
Etwas, das FSR auch zukünftig nicht leisten kann/wird, eben weil es keine Rekonstruktionstechnik ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
Wie hier schon gesagt wurde. Am Ende kann man nur das fertige Produkt vergleichen, das fertige Spiel. In diesem Spiel werden mehrere Techniken mehr oder weniger optimal umgesetzt. Klar ist DLSS vielleicht die bessere, potentere Technik. Aber bei Fällen mangelnder Umsetzung hier und vielleicht zukünftig noch in anderen Titeln bringt das alles nichts. Da bringt das lobpreisen auf DLSS auch nichts. Auch nicht der Vergleich eines AMG Motors in einem Opel.

wenn in einem komplexen Herstellungsprozess, in irgendeinem zwischenprozess ein qualitativ hochwertiges Material (weil es z.B. sehr rein ist, oder zB eine besondere Oberfläche aufweist) falsch behandelt oder falsch bearbeitet wird und es so zu Verunreinigungen kommt o.ä., dann geht die Hochwertigkeit bzw. Qualität verloren und beim Endprodukt kommt vom Einsatz dieses hochwertigen Materials nichts an. Daher merkt der Kunde / Konsument davon auch nichts.

und wenn es am Ende so sein sollte, dass DLSS für die Entwickler schwerer und/oder aufwendiger zu integrieren / umzusetzen ist, als eine Technik mit anderem Ansatz aber ähnlichen Ergebnissen, dann ist das ein Fakt der berücksichtigt werden muss und in der Entwicklung auch abgewogen werden muss. Vielleicht dann auch mal zu Ungunsten der eigentlich fähigeren Technik.
 
  • Gefällt mir
Reaktionen: Ned Flanders
Laphonso schrieb:
Witzig, genau das ließ man für DLSS nicht gelten....

Was bei Nvidia Versagen war, ist bei AMD nun eine nette Errungenschaft und erhält Lob .
Die offensichtlich unterschiedlichen Maßstäbe pro AMD und Anti Nvidia in diesem Forum sind stets erheiternd ;)
Ich hab mich in diesem Thread afair zum erstenmal an der ganzen Diskussion beteiligt und hab an keiner Stelle FSR als DLSS überlegen bezeichnet. Keine Ahnung warum Du jetzt mit sowas daher kommst.

Abegesehen davon hast du mich, ab der Mitte eines Satzes zitierst, was nicht nur den Inhalt meiner Aussage entstellt sondern deine Antwort ins Absurde drifften lässt. Falls Du den Inhalt nicht verstanden hast, empfehle ich das einfach nochmal zu lesen. Anschließend können wir dann gemeinsam auf DLSS und FSR anstoßen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo und Casillas
also bei DLSS haben die Entwickler zu wenig nachschärfen genutzt, bei FSR haben sie zu viel genutzt, check.
kleines bisschen nachschärfen im N Control Panel und DLSS ist gefixt.
 
  • Gefällt mir
Reaktionen: foo_1337 und Laphonso
Ned Flanders schrieb:
Was bleibt ist eher, dass beide ziemlich gut, weil viel schneller sind. Zumindest wäre für mich +50% Performance, den Trade off, Unterschiede in vergrößerten Standbildern zu finden, definitiv wert.
Ich spiele das Spiel in WQHD und mit Ultra Quality ist das Flimmern, gerade von der Vegetation, für mich gerade noch erträglich, alles darunter würde ich nicht anpacken.
Selbst rangezoomte Screenshots helfen FSR hier eher, als dass sie schaden, weil man hier das Flimmern nicht sieht.


Ich hab es auch mal auf der APU probiert, aber da muss man schon in 1080p spielen, um überhaupt 20FPS zu bekommen, da sieht dann selbst FSR Ulra Quality grauenhaft aus und man schafft es nicht mal mit Performance auf über 30.
Ergänzung ()

Ned Flanders schrieb:
aus reiner User Sicht kann ich die Freude über eine Technik, die auf jeder Graka, unabhängig von dessen Hersteller oder spezifischen Model, mal eben 30-50% Performance rausholt ohne das man dramatische visuelle Abstriche machen muss schon nachvollziehen.
Nvidia Nutzer konnten das mit dem GPU Scaling im Treiber auch schon vorher mit einem zwar minimal schlechteren Ergebnis, dafür aber auch in jedem Spiel.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Piecemaker schrieb:
Ne, ne, neee ...

So einfach ist das nicht.
Doch :)

Du erhältst als Programmierer eine Checkliste, an die Du denken musst, wenn Du DLSS integrieren willst.
Aus dem Original:
1629357498369.png



Piecemaker schrieb:
Nvidia hat RT & DLSS auf den Markt gebracht, und kannte davor nur die Ergebnisse aus "Laborbedingungen". Aus diesen Labormessungen sind dann die Leitfäden entstanden.
Die Leitfäden sind mit Erscheinen von DLSS2.x angepasst worden. Der oben erwähnte Punkt war von Anfang an dabei. Berücksichtigt wird er aber von den wenigsten.

Piecemaker schrieb:
Die Technologie muss sich noch als sinnvoll er/beweisen.
Das hat sie in einigen Fällen bereits getan (DLSS - Wolfenstein Youngblood / RT- Pathtracing Minecraft RTX / RT- Hybrid Metro Exodus Enhanced)

Piecemaker schrieb:
Aktuell bedeutet RT & DLSS, und auch alles was diesbezüglich von AMD kommt. einen immens erhöhten Entwicklungsaufwand.
Den gibt es nur, so lange man aus ökonomischen Gründen Karten, die diese Techniken nicht beherrschen mitbedienen will.
Man blickt hier rein auf die install- Base.

Piecemaker schrieb:
Wenn dabei mit viel Mehraufwand nur "wir können uns darüber unterhalten ob a, b oder c besser aussieht" entsteht, ist die Technologie noch nicht reif.
Weil das der falsche Blickpunkt ist. Da in so gut wie jeder Produktion seit 10 Jahren Raytracing vorkommt bzw. alles damit vorberechnet wird, frage ich mich immer wieder, warum Raytracing in Realtime plötzlich "besser" aussehen soll, als das vorberechnete.

Raytracing in Realtime bedeutet lediglich, dass Du die Szene nicht mehr vorberechnen musst und die Szene unter allen Umständen (wechselnde, dynamische Beleuchtung aus schier unendlich vielen Lichtquellen inkl. korrekter Schatten, Zerstörbarkeit von Assets, viele dynamische Objekte/Physik) immer korrekt bleibt.
Das ist ein absoluter Gamechanger in der Art und Weise, wie man künftig Spiele bauen kann.

Bis jetzt war man gezwungen hoch- statische Schlauchlevels zu bauen, damit das einigermaßen gut aussehen kann bzw. hat man mit unterschiedlichsten Tricks gearbeitet, um den Mangel bezüglich einer statischen Welt zu kaschieren....

Wie heisst es so schön - We´re getting there....
Spätestens wenn AMD DLSS kopiert (und das werden sie), wir die Basis an technologisch fähigen Karten weiter anwachsen und somit wird es für die Entwickler zunehmend interessant, die neue Technologie zu nutzen.

Treiber dahinter ist unter Anderem, dass es mit Raytracing deutlich einfacher wird, Levels zu entwerfen bzw. Content zu generieren. Gerade die Möglichkeit, die Szene im Editor in Echtzeit berechnen zu können, hilft auch jetzt schon bei den raster- basierten Spielen ungemein.

Früher hast Du eine Szene entworfen und durftest jede Kameraeinstellung "durchrendern", wenn Du einen Proof of Quality haben wolltest. Jetzt siehst Du jede Änderung sofort so, wie der User das auf den Bildschirm bekommt. Das allein beschleunigt die Entwicklung schon enorm...

Zudem wird dem immer weiter ausufernden Platzbedarf auf den Festplatten/SSDs dadurch ein wenig Einhalt geboten.
Das gepaart mit Rekonstruktionstechniken wie DLSS mit dynamischer Auflösungsskalierung ergibt für jeden eine Win- Win- Situation.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever, Unnu, Taxxor und 2 andere
JahJah192 schrieb:
kleines bisschen nachschärfen im N Control Panel und DLSS ist gefixt.
ALT + F3 ist eigentlich in jedem Spiel mit GE Unterstützung ein Gewinn, wenn man sich das mit wenigen Klicks optimiert.
Nicht nur Sharpen oder Sharpen + sind hier nett:
Ich entferne vor allem diesen "Schleier", der auf den meisten Games liegt, wie eine helltransparente Decke, kann das nicht besser beschreiben. Ich weiß auch nicht, woher das kommt, das haben fast alle Games.
Ergänzung ()

Wer das (ETWA?!) noch nicht kennt: So aktiviert Ihr das Overlay der Geforce Experience:

1629359905727.png


Dann im Spiel/Menü ALT+F3 drücken:

1629359917301.png


Dann auf + klicken für Filter hinzufügen und dort Schärfen/Sharpen wählen

1629359926637.png


Und dann skalieren und anpassen:

1629359935020.png


Und DLSS ist schärfer und weg ist jede "Matsche" :-)

Mittlerweile gibt es auch noch Sharpen Plus. Ich nutze das klassische Sharpen.

Einen anderen Filter, den Kontrast Filter, nutze ich für den eben genannten "weißen Schleier", der "über" den Games "liegt", um diesen zu entfernen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JahJah192, LAZZARUS und foo_1337
aldaric schrieb:
Also erst vergleichst du Äpfel mit Birnen. DLSS ist und war auf lediglich mittlerweile 2 Generationen begrenzt. Es ist nunmal ein Unterschied, ob lediglich neue performante Karten davon profitieren, oder grundsätzlich alle Karten die im Umlauf sind.
Du verstehst es nicht. Weil die "eigene" Karte nicht profitierte, war man emotional angepisst und hat versucht Gründe zu finden, warum das auch gar nicht schlimm ist, warum man DLSS eh nicht braucht und warum es ja eh doof ist. Die Emotionen folgen nicht dem Verstand, der Verstand (falls vorhanden) folgt den Emotionen.

Bei Entscheidungen dasselbe. Entscheidungen trifft man meistens emotional und versucht sie anschließend rational zu begründen.

In der Folge kommt halt raus: NVIDIA ist doof, DLSS ist proprietär, also muss ich es emotional gesehen schlecht reden. Weil manche sehen halt Vorteile anderer als persönliche Nachteile an.

Beispiel: Dein Chef sagt dir "Hey, du bekommst ab jetzt 500 Euro im Monat mehr Gehalt." Du freust dich. Anschließend erfährst du, dass alle anderen um dich herum 1000 Euro mehr im Monat bekommen. Wie würdest du dich jetzt fühlen? Rational stehst du besser da als vorher. Dir entsteht ja kein Nachteil dadruch, dass die anderen 1000 Euro mehr bekommen.
 
Es ist eigentlich Fakt, dass DLSS nicht nur Vorteile hat und zudem für Mehrkosten bei der Anschaffung sorgt. Man könnte genauso Nvidi-Nutzern unterstellen, sie würden emotional reagieren "DLSS muss ich jetzt super finden, weil ich ja dafür bezahlt habe".
 
  • Gefällt mir
Reaktionen: Unnu
Es ist eigentlich Fakt, dass FSR nicht nur Vorteile hat und zudem für Mehrkosten bei der Anschaffung sorgt.

Bla bla bla.

Du gehst 0,0% auf das ein, was ich geschrieben habe und kommst dann mit Scheinargumenten. Tolle Diskussionsgrundlage.

Die NVIDIA-Nutzer haben übrigens auch für Geforce Experience bezahlt, kannst ja mal nachfragen hier, wieviele das Tool toll finden.
 
Laphonso schrieb:
ALT + F3 ist eigentlich in jedem Spiel mit GE Unterstützung ein Gewinn, wenn man sich das mit wenigen Klicks optimiert.
Machst du zu dem Sharpen Filter auch noch gleichzeitig Sharpen im Treiber direkt an? Ich habe bei mir irgendwann mal den Weg gewählt mit dem Treiber Sharpen permanent zu arbeiten. Hat mich bisher eigentlich nie gestört.
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben