Bericht Upscaling-FAQ: Fragen zu Nvidia DLSS, AMD FSR und Intel XeSS beantwortet

Wenn die 3050 6GB kommt wäre an der Stelle mit den ganzen verbesserten Features Mal ein Test mit den verfügbaren lowbob Karten + noch vllt ein oder zwei alte GPUs aller drei Hersteller interessant. Was bringen DLSS & Co. denn qualitativ auf FHD, nicht unbedingt Max FPS sondern läuft es überhaupt, Zielvorgabe 30/45/60 FPS ohne Pixelmarsch oder ähnliches. Das ist ja oft so ein Argument bei den kleinen grenzwertigen Karten, ja da kann man dann aber DLSS nutzen... Wie es dann aber abseits von reinen FPS aussieht, wird selten gezeigt. Und es gibt ja Spiele, die laufen auf Low rund und sehen okay aus. Andere gerade so und sind super hässlich. Da gibt es bestimmt einige gute Beispiele.
 
  • Gefällt mir
Reaktionen: mcbloch
MrHeisenberg schrieb:
Was aber auch nicht mehr nativ ist, weil DLSS.
Das ist zwar richtig, aber ich glaube jetzt mal, dass die meisten FG in Verbindung mit Super Resolution nutzen. Nativ + FG werden wohl eher nur wenige verwenden.
Taxxor schrieb:
Natürlich wird die mögliche Latenzreduzierung immer geringer je höher die Basis-FPS sind.
Das machts dann ja noch schlimmer. In meinem Beispiel habe ich ja auch gerade erst 51 FPS ohne FG. Also ein Fall, wo man sich ernsthaft den Einsatz von FG überlegen kann. Wenn da Reflex schon nur noch so wenig bringen soll, kann ichs auch gleich fast ganz sein lassen.

Wenn Reflex nur dann was bringt, wo selbst Nvidia sagt, dass man kein FG nutzen soll, führt sich das irgendwie von selbst ab absurdum. Reflex bringt generell auch bei hohen FPS was, sonst bräuchte es in Epsort-Games ja gar keiner es. Es klappt halt in Cyberpunk einfach nicht sonderlich gut in Verbindung mit FG. Bzw. FG kostet einfach zu viel Latenz, um den Latenz-Nachteil durch Reflex auszugleichen.
 
Wolfgang schrieb:
Wenn da Reflex schon nur noch so wenig bringen soll, kann ichs auch gleich fast ganz sein lassen.
Wir sind mit ~60ms aber doch auch bereits in einem Latenzbereich, wo mir niemand ernsthaft erzählen kann, dass ihm ein Unterschied auffallen würde, wenn ich ihn an einen PC setze, wo ein Game mit 70FPS und 60ms Latenz und ein Game mit 70FPS und 50ms Latenz läuft.
Reflex reduziert die Latenz ja immer noch um etwas weniger als die Hälfte dessen, was man mit realen FPS erreichen könnte.

Und abseits von FG sieht man das bei Reflex ja auch im Cyberpunk Beispiel, Bei 50FPS mit DLSS Quality reduziert Reflex noch um 20ms von 70 auf 50ms, bei 70FPS DLSS Performane, geht es schon nur noch um 11ms von 50 auf 39ms.
Und wenn man nun besonders bei ESport Games nicht bei 70 sondern schon bei mindestens 120FPS und 30ms Latenz sind, sprechen wir bei Reflex von einer Reduzierung im Bereich 30ms auf 25ms.
Hier würde FG die Latenz dann natürlich deutlich erhöhen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Unterm Strich ist immer nur eins was zählt und das ist das subjektive Erlebnis. Wenn die Grafik gut erscheint, dann ist es doch egal von wie viel Pixeln auf wie viel Pixel hoch oder heruntergerechnet worden ist. Wenn durch FG das Bild flüssiger wirkt und der User das als besser empfindet, dann ist doch alles gut. Und da hängt es dann auch noch davon ab, was er gerade spielt. Ist es ein schnelles Spiel, wo man die Details eh nicht mitbekommt? Ist es ein Kontrollerspiel wo etwas höhere Latenz auch nicht schlimm ist etc. etc. dann können FSR/DLSS mit oder ohne FG manchmal besser oder schlechter passen.

Ich habe FSR3 per mod mittlerweile in einer ganzen Reihe Spiele testen können und werde es mit Sicherheit jedes Mal nutzen, wenn ich kann. Es funktioniert für mich sehr gut bis jetzt und ich freue mich auf offizielle Implementationen. FSR2 Quality nutze ich meist auch, sogar wenn ich es nicht benötigen würde.
 
Pumper33 schrieb:
Ich denke Nvidia nutzt die FG Exklusivität von RTX40.. als selling point
Als was denn sonst? Genau dafür wurde es Entwickelt ;)
 
  • Gefällt mir
Reaktionen: jlnprssnr und Quidproquo77
Ist zwar nur ne ganz wilde Theorie, aber vielleicht, damit Path Tracing nutzbar wird? ;)
 
MrHeisenberg schrieb:
Edit: Hier stand Mist. Hast du dazu auch was handfestes?
https://www.reddit.com/r/nvidia/comments/11ge42z/frame_generator_ofa_and_tensor_cores_usage/

The graphs below show the intermediate frame generation time at 1440p resolution. On RTX 4070 Ti it takes 2.67 ms. Estimated time on RTX 3090 Ti is 3.08 ms, only 0.41 ms longer, assuming that Ampere's OFA is 2.42 times slower.
Estimated time required to generate intermediate frame at 1440p resolution on RTX 3090 Ti is about 30% higher than on RTX 4070 Ti but it is only 0.79 ms.

If you have 100 FPS at 1440p on RTX 4070 Ti after enabling FG frame rate will increase to 158. It's because 1000 / (10 + 2.67) * 2 = 157.86 FPS.

In similiar case on RTX 3090 Ti, 1000 / (10 ms + 3.46 ms) * 2 = 148.59 FPS.

So it's not 50% vs 15% more performance. The differences would be even smaller if the base FPS is lower.
Heißt, es würde auch auf einer RTX 3060 laufen. Dann dauert dort die Frame Generation meinetwegen 3,5ms.
Alles kein Beinbruch und das nur unter der Annahme, dass Amperes OFA so viel langsamer sei.
Das sind nur theoretische Werte.

Wenn du mich fragst, dann veräppelt Nvidia schlicht ihre Kunden und könnte Frame Generation "genauso" auf Ampere wie auch auf Turing freischalten, vielleicht mit minimalsten Nachteilen.
Einen festen Beleg stellt das aber nicht dar.

MrHeisenberg schrieb:
Laut Nvidia klingt das aber nicht so, als könnte das sein. Bei Turing und Ampere berechnet die Compute Engine der GPU den OFA Workload und nicht jede Ampere Karte hat die gleiche Anzahl an compute Einheiten.
Ich würde generell Herstellern nicht viel Glauben schenken, wenn es darum geht neue Produkte in Szene zu setzen. Antilag + nur für RX7000? Derselbe Move. Selbst DLSS würde mit einem Fallback problemlos auf Karten vor Turing ohne Tensor Cores laufen, bzw lief es auch mit DLSS 1.9 ohne Tensor Kerne, nur minimal langsamer.

Natürlich können Unternehmen auch nicht permanent alte Zöpfe mitschleppen.
Aber Ampere ist ja überall noch aktuell, wird auch noch verkauft.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Damit hast du jetzt bewiesen, dass die OFA der 3080 und die 3090 TI gleichschnell sind, wenn die Renderpipeline leer ist, nur ist das in Spielen nicht der Fall.
Wenn du jetzt noch berücksichtigst, dass bei den alten Karten die Compute Engine für FG belastet wird und die 3080 hier in Summe nicht so viele Kapazitäten wie die 3090 TI hat, sinkt die Leistung.
Die Frage ist also, wie das ganze aussieht, wenn die Karte auch noch andere Dinge berechnen muss und nicht idlet ;)

Quidproquo77 schrieb:
Heißt, es würde auch auf einer RTX 3060 laufen. Dann dauert dort die Frame Generation meinetwegen 3,5ms.
Alles kein Beinbruch und das nur unter der Annahme, dass Amperes OFA so viel langsamer sei.
Das sind nur theoretische Werte.
Nochmal: Es hat niemals jemand behauptet, dass es nicht auf der 3060 läuft. Behauptet wurde, dass es nicht gut genug läuft. Faktisch ist das OFA SDK für alle Karten ab Turing freigegeben. Technisch verhindert Nvidia da also nichts und wenn du willst, kannst du es auch auf einer 3060 nutzen. Siehst du ja im Reddit Beispiel oder im SDK von Nvidia selbst.

Wenn du also recht hast und Nvidia uns alle nur verarscht, wieso hat das bisher noch niemand aufgedeckt?
Es lässt sich, für einen Spiele-DEV, ja recht einfach testen. Wie gesagt unterstützt das OFA SDK alle Karten ab Turing.
 
Zuletzt bearbeitet:
Es ist wirklich eine absolute Schande dass meine GTX 1080 durch AMD und Intel eine Lebensverlängerung erhält, die beide Upsampling Technologien für die Karte zur Verfügung stellen, aber der eigene Hersteller nicht! Das muss man sich mal vorstellen! Die Konkurrenz bietet die Technik offen an, aber der eigene Hersteller verweigert sie einem! Das ist absolut krank!

Und NEIN Nvidia Fanboys, dafür gibt es KEINE logischen technischen Gründe! Es ist eine rein finanzielle Entscheidung, mehr nicht!

Das wird meine zukünftigen Kaufentscheidungen mit sehr großer Sicherheit beeinflussen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und testwurst200
AMD arscht auch die eigenen <RDNA3-Kunden, indem FG nur mit HAGS wirklich gut funktioniert, was es nur für RDNA3-Karten im Treiber gibt (nichtmal Phoenix-APUs mit RDNA3-GPU werden derzeit unterstützt...)

Ändert natürlich nichts daran, dass FSR 3 FG eine Blamage für DLSS 3 ist. Witcher 3 RT max sieht hier mit Mod auf der 7800 XT deutlich flüssiger aus als es auf der 4070 (zurückgeschickt) mit DLSS 3 FG. Macht Hoffnung, dass AMD vielleicht doch noch irgendwann beim Upsampling-Part ebenfalls zurückschlagen kann. Das Disocclusion-Geflimmer sollte dringend angegangen werden.
 
pacifico schrieb:
Es wäre auch super wenn häufiger darauf hingewiesen wird, daß Upscaling nix für Leute ist die alte GPU mittels Upscaling nocheinmal ein Jahr länger an einem FHD display betrieben wollen.

Das Bild sieht einfach schlecht aus wenn es von einer Briefmarke auf FHD hochgerechnet wird :D
Genau das hatte ich mir erhofft da mir die Grafik generell nicht so viel bedeutet :d
 
aid0nex schrieb:
Die Konkurrenz bietet die Technik offen an, aber der eigene Hersteller verweigert sie einem! Das ist absolut krank!
Ich denke das ist reines Kalkül seitens AMD, man hofft darauf das vor allem die nicht so großen Entwickler sich die Implementierung für Nvidia FG sparen, da sie mit einer einzigen Implementierung bereits dann beide Grafikkartenhersteller abdecken.^^

Und ich bin mir relativ sicher wäre AMD in einer besseren Position als Nvidia in diesem Sektor hätten die das nicht gemacht.^^
 
  • Gefällt mir
Reaktionen: aid0nex
aid0nex schrieb:
Und NEIN Nvidia Fanboys, dafür gibt es KEINE logischen technischen Gründe! Es ist eine rein finanzielle Entscheidung, mehr nicht!
Solange es keinen Beweis hierfür gibt, bleibt das nur ne Verschwörungstheorie der AMD Fanboys ;)

aid0nex schrieb:
Das ist absolut krank!
Daran ist nichts krank. Die Karte ist doch nicht schlechter oder kann sie weniger als zum Zeitpunkt des Kaufs?

Ist schon echt blöd von Nvidia, dass sie 8 Jahre alter Hardware keine neuen Features spendiert ;)
 
MrHeisenberg schrieb:
Solange es keinen Beweis hierfür gibt, bleibt das nur ne Verschwörungstheorie der AMD Fanboys ;)

Welche "Beweise" soll es denn dafür geben? Logischer Menschenverstand reicht nicht? (Okay, zugegeben - den muss man auch erstmal haben)

MrHeisenberg schrieb:
Daran ist nichts krank. Die Karte ist doch nicht schlechter oder kann sie weniger als zum Zeitpunkt des Kaufs?

Ist schon echt blöd von Nvidia, dass sie 8 Jahre alter Hardware keine neuen Features spendiert ;)

Doch, es ist krank dass ausgerechnet die Konkurrenz die Karte mit neuen Features ausstattet, während es der Hersteller selbst nicht tut.
 
aid0nex schrieb:
Welche "Beweise" soll es denn dafür geben?
Es gibt Beweise dagegen: DLSS ist qualitativ besser und das kommt ja nicht von ungefähr. Also zu behaupten, dass es keinen technischen Grund gibt, ist für mich unlogisch.

aid0nex schrieb:
Doch, es ist krank dass ausgerechnet die Konkurrenz die Karte mit neuen Features ausstattet, während es der Hersteller selbst nicht tut.
Nein, die Konkurrenz macht es, weil sie keine Wahl hat. Niemand implementiert FSR, wenn es nur 15% der User nutzen können.
 
MrHeisenberg schrieb:
Es gibt Beweise dagegen: DLSS ist qualitativ besser und das kommt ja nicht von ungefähr. Also zu behaupten, dass es keinen technischen Grund gibt, ist für mich unlogisch.

"es kommt ja nicht von ungefähr" --> Was soll DAS denn bitte aussagen? 😂
Ich warte immer noch auf einen technischen Grund von dir, warum DLSS auf älteren Chipdesigns nicht lauffähig sein sollte. Du hast mir keinen genannt.
Ergänzung ()

Gravlens schrieb:
Ich denke das ist reines Kalkül seitens AMD, man hofft darauf das vor allem die nicht so großen Entwickler sich die Implementierung für Nvidia FG sparen, da sie mit einer einzigen Implementierung bereits dann beide Grafikkartenhersteller abdecken.^^

Und ich bin mir relativ sicher wäre AMD in einer besseren Position als Nvidia in diesem Sektor hätten die das nicht gemacht.^^

Kann sein, aber die "Werbung" wirkt. ;) Sie wird mich vermutlich von 10 Jahre Nvidia Kundschaft in Zukunft zu AMD ziehen.
 
aid0nex schrieb:
Ich warte immer noch auf einen technischen Grund von dir, warum DLSS auf älteren Chipdesigns nicht lauffähig sein sollte.
Der Grund wurde hier und in etlichen Threads schon genannt. Wenn du zu unfähig bist, dich zu informieren, ist das dein Bier.
In sämtlichen Tests wird DLSS eine bessere Bildqualität als FSR attestiert.
Warum das so ist, hast du dich scheinbar nie gefragt. Verschwörungstheorien sind der leichtere Weg für Kleingeister ;)

DLSS arbeitet mit mehreren Samples als FSR, weil es durch dedizierte Hardware/Fixed Functions beschleunigt wird und der Algo somit komplexer ausfallen kann ohne, dass es zeitkritisch wird. FSR kann das nicht.
Hat deine GPU Tensor Cores? Nein? AH!
Und für Frame Generation brauchst du nun mal Optical Flow Accelerator, die deine Karte ebenfalls nicht hat.

Ich weiß auch nicht, warum man rumheult, dass eine 8 Jahre alte Grafikkarte keine neuen Features bekommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jlnprssnr
MrHeisenberg schrieb:
Der Grund wurde hier und in etlichen Threads schon genannt. Wenn du zu unfähig bist, dich zu informieren, ist das dein Bier.

Ich sage: Es gibt keinen technischen Grund.
Du: Doch gibt es.
Ich: Okay, welchen?
Du: Kann ich dir nicht sagen, informier dich selbst.

Das ist doch jetzt ein schlechter Scherz, oder? 😂
Ergänzung ()

MrHeisenberg schrieb:
In sämtlichen Tests wird DLSS eine bessere Bildqualität als FSR attestiert.

Das habe ich nicht bezweifelt.

MrHeisenberg schrieb:
Warum das so ist, hast du dich scheinbar nie gefragt. Verschwörungstheorien sind der leichtere Weg für Kleingeister ;)

Ah, jetzt bin ich also ein dummer Verschwörungstheoretiker. Alles klar. Absolut unterstes Niveau von dir.
 
aid0nex schrieb:
Du: Kann ich dir nicht sagen, informier dich selbst.

Das ist doch jetzt ein schlechter Scherz, oder? 😂
MrHeisenberg schrieb:
DLSS arbeitet mit mehreren Samples als FSR, weil es durch dedizierte Hardware/Fixed Functions beschleunigt wird und der Algo somit komplexer ausfallen kann ohne, dass es zeitkritisch wird. FSR kann das nicht.
Hat deine GPU Tensor Cores? Nein? AH!
Und für Frame Generation brauchst du nun mal Optical Flow Accelerator, die deine Karte ebenfalls nicht hat.
Es steht im Post, kannst du lesen?
 
Zurück
Oben