Notiz Nvidia: DLSS für Cyberpunk, Minecraft und weitere Spiele

Danke! :)
 
captain kirk schrieb:
Die Bildschärfe hat für mich nichts mit Qualität an sich zutun. Das ist eine Einstellungssache, die ich im Nvidia Treiber ganz einfach selber, in nativer Auflösung, machen kann. Nur weil das Feature von DLSS automatisch genutzt wird ist es kein Grund darauf umzusteigen.
DLSS ist ein gute Sache wenn ich zuwenig FPS mit meiner nativen Auflösung habe, vorallem am 4k TV.
 
Ich zocke auch auf einem 4K 65" 120Hz Display und diese Technik ist da Gold wert. Selbst meine 3090 kommt bei der Auflösung an ihre Grenzen.
Bei Control, COD Cold War, Tomb Raider und Death Stranding ist DLSS richtig genial. Ich gehe auch stark davon aus, dass zukünftige Spiele auch davon profitieren wernden.
In 99% der Fälle bemerkt man noch nich mal, dass irgendetwas runter skaliert wurde.
 
  • Gefällt mir
Reaktionen: captain kirk
1.) DLSS 1.0 und 2.0 sind ganz andere Welten. DLSS 1.0 war eine Softwarelösung, die auf den normalen Shadern gelaufen ist. DLSS 2.0 verwendet die Tensor Cores. Die Qualität kann man absolut nicht vergleichen.

2.) Der Grund, warum DLSS nicht treiberseitig funktioniert bzw. funktionieren kann ist, dass hier nicht nur statische Bildinhalte berücksichtigt werden, sondern auch die Bewegung der Objekte. Der Vorteil ist, dass man im selben Zug auch gleich hochwertiges AA bekommt d.h. die Bildqualität kann stellenweise auch deutlich besser als native 4K sein, da man die Unschärfe durch TAA in der Bewegung nicht hat. Das fällt nur gerne bei den Screenshot Vergleichen gerne unter den Tisch, weil hier meistens Standbilder verglichen werden.

3.) Was einige noch nicht ganz realisiert haben:
Der Performancegewinn von DLSS hängt von der Framerate ab.
Die Tensor Cores haben eine bestimmte Anzahl an Pixeln/Sekunde, die sie upscalen können. Da ist großteils unabhängig vom jeweiligen Frame und komplett unabhängig davon, wie aufwendig die entsprechenden Frames generiert wurden.
Eine RTX 3080 kann bei 4K bis ca. 100-120 fps mit Performanceeinschränkungen um die 10-20% upscalen d.h. wenn man unter 1440p ohne DLSS 60fps hat, dann bekommt mit 1440p Renderauflösung + Upscaling auf 4K (DLSS Quality) ca. 50-55fps heraus.
Wird diese Grenze von 100-120fps überschritten, so sind die Performanceeinschränkungen höher und der Unterschied zwischen native 4K und 4K DLSS Quality wird geringer.

Was heißt das nun in der Praxis:
Bei der RTX 3080 kann man fix davon ausgehen, dass 4K DLSS Quality fast der 1440p Performance entspricht. Bei allen Fällen, wo dies nicht so ist wird man sowieso schon in einem fps Bereich sein, wo man es nicht mehr merkt.
Das entscheidende daran: Diese Grenze gilt nicht nur für aktuelle Titel, sondern auch für Next Gen Titel, da es für DLSS egal ist, wie aufwendig das jeweilige Frame generiert wurde.

Bei den kleineren Karten muss man die Grenze linear runter rechnen:
Die RTX 3070 hat ca. 2/3 der Tensor Core Leistung der 3080 d.h. das Limit liegt bei ca. 70-80fps statt 100-120 fps
Die 3060 Ti hat noch mal 20% weniger Rohleistung d.h. das Limit dürfte um die 60fps liegen.
Bei 2060 Super bzw. 2070 Super liegt das Limit noch einmal darunter. Hier kommt man bei 4K 60fps nur mehr mit deutlichen Einbußen weg, allerdings erreichen diese Karten bei DLSS Titeln sowieso 4K60 nur mehr, wenn man schon alle Details ziemlich weit runter schraubt. Spielt man hingegen mit den Karten auf 1440p passt alles wieder zusammen und man kann wieder ziemlich verlustfrei von ca. 1080p60 auf 1440p60 rauf skalieren.

4.) AMD arbeitet zwar auch an einem DLSS Konkurrenten, aber sie haben keine Tensor Cores. Falls sie es nicht schaffen eine deutlich bessere Lösung als Nvidia zu erstellen wird die Qualität sich wahrscheinlich ca. auf dem Niveau von DLSS 1.0 bewegen, was in der Praxis wohl bedeutet, dass es vom Performance/Qualitätsverhältnis nicht besser ist als ohne Upscaling (z.b. 1080p Upscaling auf 4K mit der Qualität und Performance von 1440p). Man hat dann nur den Nutzen des besseren AA.
Und nein die Lösung von AMD wird auch nicht rein treiberseitig funktionieren. Das werden auch die Spielehersteller unterstützen müssen, nur geht AMD den Weg über Microsoft, um das ganze als offiziellen Standard anzubieten, was aber nicht heißen muss, dass sich das durchsetzen wird.

Meine Vermutung: Man wird jetzt noch ein Jahr herum tüfteln, dann wird es eine Softwarelösung geben (ähnlich wie mit DLSS 1.0) und die nächste Generation bekommt dann Tensor Cores und kann das Ganze dann auch in Hardware. Für jetzige 6800 Käufer wird das wenig bringen.
 
  • Gefällt mir
Reaktionen: Kryss, USB-Kabeljau, noxon und 5 andere
andr_gin schrieb:
1.) DLSS 1.0 und 2.0 sind ganz andere Welten. DLSS 1.0 war eine Softwarelösung, die auf den normalen Shadern gelaufen ist. DLSS 2.0 verwendet die Tensor Cores. Die Qualität kann man absolut nicht vergleichen.
Falsch. Nur die DLSS 1.9 Control variante lief nicht mit Tensor Cores. Der maßgebliche Unterschied zw. 1.0 und 2.0 ist, dass das neuronale Netz nicht mehr mit den eigentlichen Spieltiteln trainiert werden muss, sondern nun generisch.

andr_gin schrieb:
4.) AMD arbeitet zwar auch an einem DLSS Konkurrenten, aber sie haben keine Tensor Cores.
Da FFX SR nicht auf ML zurück greift, ist das nicht so schlimm. Aber es wird daher wohl auch nicht mit DLSS mithalten können. Wie das ganze dann ankommen wird, wird sich zeigen.
 
m4rci schrieb:
Die Bildschärfe hat für mich nichts mit Qualität an sich zutun. Das ist eine Einstellungssache, die ich im Nvidia Treiber ganz einfach selber, in nativer Auflösung, machen kann. Nur weil das Feature von DLSS automatisch genutzt wird ist es kein Grund darauf umzusteigen.
DLSS ist ein gute Sache wenn ich zuwenig FPS mit meiner nativen Auflösung habe, vorallem am 4k TV.

DLSS ist nicht nur ein simpler Schärfefilter facepalm. Durch das Subsampling von Frame zu Frame mit Hilfe von Motion Vektoren kann man mehr Informationen heraus holen als in Nativer Auflösung. Und das auch indem weniger Pixel Pro Frame gerendert werden. Aber duch die Informationen der vergangenen Frames hat man Mathematisch bei 2 Frames schon das doppelte an Informationen und bei 4 das vierfache. Dazu kommt noch die magic durch AI.

https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/

1607466612806.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und darkspark
DLSS 2.0 ist geil, punkt. In CoD Cold War, hätte ich ohne DLSS RTX komplett knicken können, mit Performance bin ich noch irgendwie auf die 80 FPS in UWQHD gekommen (mittlere-hohe Einstellungen). Da rendert das Spiel also nicht mal mit FHD Auflösung (1720x720), sieht aber trotzdem scharf aus und benötigt eigentlich kein Aliasing mehr. Bei Performance gibt es zwar leichte Muster/Artefakte bei bestimmten Dingen wie Schatten oder Partikeln, fällt aber kaum auf.

Das muss auch von AMD kommen, um den Performanceverlust durch Raytracing zu kompensieren.
 
  • Gefällt mir
Reaktionen: captain kirk und USB-Kabeljau
Endlich Minecraft bei 60 FPS! Ich bin mit DLSS soweit zufrieden, verringert bei meiner 2070 Super deutlich die Abwärme und den Energieverbrauch bei 144 FPS Limit.
 
Ich wollte ja unbedignt ne 6800/6900xt, aber ist ja nicht wirklich zu bekommen. Wenn jetzt Cyberpunk2077 DLSS Support bekommt, bin ich noch weniger traurig über die extra für 3 Wochen Urlaub ergatterte 3080
 
m4c1990 schrieb:
Kinder, wartet doch einfach ab, AMD hat bei weitem nicht so viel Kohle zu verbrennen^^
DLSS interessiert mich sowas von Null, wenn das erst von den Spielen unterstützt werden muss und ich diese eh nicht spiele, dann geht es auch ohne. Die Handvoll Spiele und schon so ein Aufstand, chillt doch erstmal, Leute.


Es zeigt sich doch ganz klar, dass DLSS bei einem sehr großen Teil neuer AAA-Titel dabei ist und dort in der 2. Generation sehr gut funktioniert. Das wird in Zukunft höchstens noch besser laufen.

Nvidia wird in solchen Titeln automatisch einen uneinholbaren Vorsprung haben, solange AMD keinen DLSS-Konter liefert und wer AMD kennt, der weiß: AMD Software ist alles andere als eine gesicherte Konstante. Häufig eher schlecht als recht. Nur weil sie was angekündigt haben, heißt das nicht, dass sie das auch in vertretbarer Qualität und Stabilität liefern.

Mich persönlich bringt das in eine schwierige Situation. Ich spiele schnelle Shooter gerne auf 1080p 240 Hz mit Low Settings, meist im CPU-Limit. Dort wäre eine 6800 XT meiner 3080 häufig überlegen, gerne auch mal um mehr als 10%. Ich möchte aber auch neue AAA-Titel in spielbaren Framerates und hohen bis max. Settings genießen können. Da sehe ich die 3080 aktuell deutlich vorne, deutlich mehr als 10%.
 
  • Gefällt mir
Reaktionen: captain kirk und USB-Kabeljau
foo_1337 schrieb:
Falsch. Nur die DLSS 1.9 Control variante lief nicht mit Tensor Cores. Der maßgebliche Unterschied zw. 1.0 und 2.0 ist, dass das neuronale Netz nicht mehr mit den eigentlichen Spieltiteln trainiert werden muss, sondern nun generisch.


Da FFX SR nicht auf ML zurück greift, ist das nicht so schlimm. Aber es wird daher wohl auch nicht mit DLSS mithalten können. Wie das ganze dann ankommen wird, wird sich zeigen.

1.) Auch DLSS vor 1.9 lief nur auf den Shadern. Das mit den Tensor Cores bei DLSS 1.0 war ein Marketingmärchen von Nvidia, um die Mondpreise von Turing zu rechtfertigen bzw. dass es DLSS nicht für Pascal gab.

2.) Ja das mit dem trainieren pro Spiel war auch ein Problem. Ob hier die Verwendundung von Tensor Cores den Unterschied gebracht hat, kann ich nicht sagen. Gut möglich, dass das Trainieren der generischen Modells einfach etwas länger gedauert hat bzw. erst mit mehreren Spielen möglich war, da gewisse Objekte in machen Spielen gar nicht vorkommen.

3.) Wenn AMD nicht mal auf ML setzt, warum wird dann überhaupt von einem DLSS Kontrahenten gesprochen? Klassische Upscaling Algorithmen gibt es schon die ganze Zeit. siehe FidelityFX.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
aldaric schrieb:
Genau da liegt das Problem. Der Entwickler muss es einbauen, außer in AAA Titeln und irgendwelchen gesponsorten Titeln von nVidia, wird sich das so nicht in dem Maße verbreiten wie gewünscht.

Zudem haben die Entwickler mittlerweile auch Alternativen am Horizont mit der zukünftigen DX12 Funktion. Da müssen sie nichts einbauen, wenn der Titel die aktuellste Schnittstelle unterstützt. Da muss man nur hoffen, dass nVidia diese Funktion zügig auch unterstützt.
Und das funktioniert deiner Ansicht nach auf magische Weise einfach so von allein?
 
  • Gefällt mir
Reaktionen: bensen
Und auf DLSS bei PUBG warte ich immer noch. 🙈
Gut das Nvidia das damals mit angekündigt hat, als sie das Feature vorgestellt haben. 😅
Oder liegt es am Entwicklerstudio? Man weiß es nicht....🙉🙈
 
MadMaxx87 schrieb:
Und auf DLSS bei PUBG warte ich immer noch. 🙈

Gerade bei kompetitiven Spielen wie PUBG würde ich meiner Meinung nach nicht darauf setzen. Ich sehe es bei War Thunder. Wenn du da den Performance Modus nutzt merkt man schon bei den Panzerschlachten wie bei einigen weit entfernten Bäumen oder Antennen die Wipfel bzw. Spitzen plötzlich verschwinden und wieder auftauchen sobald wieder Informationen dahinter sind oder man näher kommt.

Der Performancegewinn ist zwar super, aber ich will es dann doch nicht riskieren mal von jemanden abgeschossen zu werden der nicht gerendert wurde. Im Quality Modus funktioniert das aber zum Großteil sehr gut! Da habe ich zwar nicht so den FPS Sprung, aber trotzdem gut 10% weniger Auslastung auf der Grafikkarte. Fürs Streamen ist das natürlich super!


Was mir an DLSS aufgefallen ist, dass Kanten viel weicher werden. Besser als bei TAA. Außerdem fügt es dem Spiel einen kleinen Motion Blur Effekt hinzu der nicht so generisch wirkt, wie ein "gewollter" den man in den Einstellungen umschalten kann und ist auch nicht störend beim Spielen. So weit gefällt es mir ganz gut.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau, jdiv und MadMaxx87
..::Borni::.. schrieb:
Aber zum Beispiel bei Cyberpunk mit Raytracing in 4K wirds sicher sehr nützlich sein.
Der entscheidende Punkt für mich.
Cyberpunk ist für mich vermutlich der große Singleplayertitel nächstes Jahr für mich.
Dazu kommt vermutlich Ende nächsten Jahres der nächste Battlefield Teil als großer Multiplayertitel. Da BF V bereits DLSS und Raytracing unterstützt, dürfte das vermutlich auch beim neuen Titel als sicher gelten.

AMDs Raytracing wird in Cyberpunk zumindest vorerst garnicht funktionieren und ohne DLSS als Performance Retter könnte es in WQHD mit einer RX 6800 je nach Titel schon knapp werden.

Wollte/müsste ich heute kaufen würde meine Wahl daher trotz weniger VRAM eher auf eine RTX 3070, als die RX 6800 fallen. Mal abwarten wie es im Frühjahr aussieht.
 
Habe mich mit dem Thema nicht sooo viel beschäftigt, aber ausgehend von einem GTX 1080 besitzer (mit 1440p, 144 Hz, G-Sync @ 24"), ne Frage an die, die ähnlich upgegraded haben:

Wie sehr lohnt es sich für nicht nur Cyberpunk, sondern auch künftige Games auf eine RTX umzusteigen, z.B. die 3060 ti / 3070?
Nicht nur im Hinblick auf RTX effekte fürs visuelle, sondern vor allem auf DLSS, was ja einen deutlichen fps-boost bringen soll?!
Oder evtl in richtung gebrauchte 2070s nur dafür?

Mehr als 500 würde ich eher nicht für ne GPU ausgeben wollen, dafür zock ich nicht annähernd genug dafür :p
Eine 3070 für 450€~ (also einpendeln leicht unter der UVP, wie man es eigentlich gewohnt ist) fände ich optimal, aber das kann man ja zur Zeit eh vergessen xD

Aber generell, wie groß wäre der merkbare Unterschied durch DLSS (und RT), abseits vom reinen Performance-unterschied?
Kommt abseits von der Rohleistung nochmal +50% mehr fps drauf mit DLSS, wie ich es auf den Grafiken erkenne, oder übersehe ich da was?
 
Foxel schrieb:
DLSS ist nicht nur ein simpler Schärfefilter facepalm. Durch das Subsampling von Frame zu Frame mit Hilfe von Motion Vektoren kann man mehr Informationen heraus holen als in Nativer Auflösung. Und das auch indem weniger Pixel Pro Frame gerendert werden. Aber duch die Informationen der vergangenen Frames hat man Mathematisch bei 2 Frames schon das doppelte an Informationen und bei 4 das vierfache. Dazu kommt noch die magic durch AI.

https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/

Anhang anzeigen 1006218
Hier war auch nie die Rede davon das es sich nur um einen Filter handelt. Allein das Argument ein schärferes Bild durch DLSS zu bekommen (wie in seinen Igor link zu sehen) ist etwas mau.
Du zitierst aber sehr gut die verlinkten Werbetexte, das du mir auch sicher sagen kannst was für mehr Informationen ich im Spiel genau durch DLSS bekomme? Die magic durch AI? Was willst du mir damit sagen?
 
Zurück
Oben