DLSS 3 auf der Turing-Architektur nun doch möglich?

br3adwhale schrieb:
Solange die Unterschiede zu "natürlich" berechneten Bilder gering bzw. vertretbar sind spricht imho nichts dagegen...
Es geht nicht nur um die Unterschiede der Bilder, auch um die Latenz - Ab ca. Minute 15 - Wenn nVidia die UI Probleme nicht patcht ist DLSS 3 imho völlig nutzlos. Auch die zusätzliche Latenz (eig doch wichtiger als FPS) machen DLSS nicht wirklich zu dem, was DLSS 1 und 2 sind. DLSS 3 ist mit der Frame-Generierung einfach noch mal etwas völlig anderes als das Hochskalieren mit Hilfe von AI. Zudem fällt das ganze scheinbar mehr und mehr auf, je geringer die Framerate ist, was DLSS 3 unattraktiv macht, wenn man es nutzen will um die 60FPS zu knacken (z.B. auf einer potenziellen 4050, oder wenn ältere GPUs das doch unterstützen sollten).

Ansonsten gibt es keine wirklichen Gründe, warum DLSS 3 nicht auch auf älteren Karten laufen sollte. (Ich meine FSR von AMD läuft auf einer GTX 1070:freak:) Die Frage ist eher, ob nVidia das möchte -> offesichtlich nicht. Sonst kommen die Besitzer älterer Karten noch auf die Idee, diese länger zu behalten. Gleichzeitig werden nur Spiele der GPU-Generation neue Features unterstützen und wenn dann sagen wir mal in 2 Jahren eine 5090 mit DLSS 4 herauskommt, unterstützen die Spiele ab da eben auch nur noch DLSS 4 (weil von nVidia gibt es dann für die implementierung älterer DLSS-Versionen kein Geld mehr) - etc.

wern001 schrieb:
In Wahrheit bedeutet es das die Grafikkarte zu langsam ist und nur mit Tricks hoche FPS schaft
Mehr FPS=Besser - dem hätte ich so bis DLSS3 nicht widersprochen. An sich ist Up/Down-scaling/sampling ne tolle Sache. Klar kann man in 4k noch die Kantenglättung der Wahl einschalten, aber gerade TAA macht das Bild manchmal auch eher schlimmer als besser und andere Kantenglättungen kosten teils enorm Leistung - Warum also nicht den Weg andersherum gehen und das Bild in einer geringeren Auflösung rechnen, als der Monitor wiedergeben kann. Am Ende sollte man imho WQHD nativ mit bester Kanteglättung gegen 4k (mit DLSS Quality (also in WQHD berechnet)) vergleichen und da hat man bei letzterem eig immer das bessere Bild und oft sogar mehr FPS. Wenn sich bei DLSS 3 jetzt aber nicht die Latenz/Imput-Lag mit verbessert (siehe oben) dann ergeben diese FPS, die man mehr hat imho, auch null Sinn. Das lässt sich vermute ich auch nicht wirklich patchen (wie denn auch?), daher ist das wirklich nur eine Schönung der FPS-Zahlen bei Benchmarks.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: vti und br3adwhale
nciht schrieb:
Ansonsten gibt es keine wirklichen Gründe, warum DLSS 3 nicht auch auf älteren Karten laufen sollte. (Ich meine FSR von AMD läuft auf einer GTX 1070:freak:)
Doch gibt es, zumindest lt. nvidia: DLSS 3.0 hängt stark von den Tensor Cores ab (und vom "Optical Flow Accelerator", was auch immer das ist), und die haben sich mit der 40x Generation nicht nur von Gen3 auf Gen4 weiterentwickelt sondern sind auch in der Anzahl stark gestiegen: von 328 (3080) bzw. 336 (3090 Ti) auf 576 (4090).
Grundsätzlich laufen tut es ja offenbar, aber wenn die Leistung zu schlecht ist. z.B. weil auf midrange-Karten die künstlich erzeugten Frames zu sehr stören, würde ich es mir auch überlegen die Technik für ältere Generation freizugeben. Klar, nvidia könnte sagen: hier, nutzt es, aber wir garantieren nicht für ein gutes Ergebnis... das scheint mir aber nicht zu nvidia zu passen. Kann mich aber auch irren (mit dem Rückzug der 12GB 3080 haben sich mich jedenfalls überrascht).
FSR wurde ja schon mit dem Gedanken entwickelt das es auf anderen GPUs laufen kann. Insofern hinkt der Vergleich etwas ;)
 
Korben2206 schrieb:
Doch gibt es, zumindest lt. nvidia: DLSS 3.0 hängt stark von den Tensor Cores ab (und vom "Optical Flow Accelerator", was auch immer das ist), und die haben sich mit der 40x Generation nicht nur von Gen3 auf Gen4 weiterentwickelt sondern sind auch in der Anzahl stark gestiege
Ich weiß schon, was nVidia erzählt/andeutet - aber die Märchen muss ich ja nicht glauben. Zumal man es ja schon vorher so gehandhabt hat, dass Features (DLSS 1 und 2) hardwarebedingt umgesetzt wurden, obwohl das überhaupt keine Frage von Tensor-Cores und Leistung war, mit quasi der gleichen Begründung. Und wie würde das bitte klingen, wenn die stattdessen erzählen würden, dass man entweder zu faul ist das auf alten Karten zu supporten, oder man sich das Geld sparen will, oder neue Features generell lieber nur auf neuen Karten anbieten will, um Kaufreize zu schaffen - Nene, die überlegen sich die Antworten vorher schon gut und wenn auch nur einer der Punkte oben die tatsächliche Wahrheit sein sollte, dann würde man sicherlich trotzdem lieber halb lügen, als es so zu sagen. Solche Halbwahrheiten sind eben immer die Balance zwischen Gewinnorientiert und Kundenfreundlich.

Korben2206 schrieb:
auch in der Anzahl stark gestiegen: von 328 (3080) bzw. 336 (3090 Ti) auf 576 (4090).
Die Leistung der TCs ging (schon immer) fast vollständig ins Ray-Tracing. Die Hand-Voll TCs, die jetzt für DLSS3 genutzt werden, hat wohl auch jede andere RTX-Karte übrig. Und falls es doch knapp wird, warum nicht bei einer RTX 2060 sagen - OK, du kannst RT, oder DLSS3, aber nciht beides - dafür hast du nicht genug TCs, bzw. die sind zu schwach dafür, weil das jetzt eben mehr als nur Upscaling ist? Gerade die kleineren und älteren Modelle haben doch die kommenden Jahre generell zu wenig Leistung für RT, da wäre DLSS3 ohne RT doch super. Und wenn es eine Frage der Treiber-Updates, Firmware/Software-Support ist, dann würde das wohl heißen nVidia ist einfach zu faul (das ist es denen nciht wert Geld in die Entwicklund zu investieren - sollen die Leute halt ne neue Karte kaufen)...

Korben2206 schrieb:
FSR wurde ja schon mit dem Gedanken entwickelt das es auf anderen GPUs laufen kann. Insofern hinkt der Vergleich etwas
Korrekt, das ist eben der andere Ansatz, aber der Vergleich hinkt eben nicht, da AMD zeigt, wie wenig Leistung AI-Upscaling kostet, selbst wenn man es auf Hardware betreibt, die dafür nicht spezifisch gedacht ist. - Nun kommt man dann halt zu der Schlussfolgerung, dass AI-Upscaling vom Konzept nicht so sonderlich Hardwarebedingt sein kann (die normalen Cuda-Cores können das eben auch), bzw. auch nicht so wahnsinnig Leistung kostet im Vergleich zur Kantenglättung. Die TCs sind auch nur Cores, die für bestimmte Aufgaben ggf. besser geeignet sind. Ich behaupte mal, die Qualitätsunterschiede von FSR und DLSS, sind aber zum größten Teil Softwareseitig zu erklären (bessere AI dahinter, etc.) Wer jetzt 1 und 1 zusammenzählen kann, merkt ggf. auch, dass sich das finanziell für nVidia zufällig einfach lohnt, wenn man ältere Karten außenvor lässt. DLSS3 ist ja zudem auch im Grunde etwas völlig anderes als DLSS vorher war mit der Frame-Generierung - das hätte man eben auch mit dem Gedanken entwickeln können, es auf älteren RTX-Karten verfügbar zu haben - aber das würde nVidia halt auch so überhaupt nciht ähnlich sehen.

Korben2206 schrieb:
das scheint mir aber nicht zu nvidia zu passen.
Das ganze ist mehr Verkaufs-Strategie, bzw. Kosten(Aufwand)/Nutzen, als wirklich eine Diskussion darüber, ob die Hardware das könnte. Genau das passt auch wunderbar zu nVidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: br3adwhale
Zurück
Oben