News Aus der Community: Wie sich DLSS und Frame Generation im CPU-Limit verhalten

Etwas Peinlich... hab ja selbst eine 3800er und DLSS verstehe ich bis heute nicht. Ich Spiel auf 2K Auflösung und ob ich da DLSS brauch war ich mir nie so sicher, das Bild war schon immer mit 2K sehr Scharf.
So wie ich das herauslese bringt DLSS mir etwas, wenn ich statt 2K in FullHD spiele? O_o
 
schnacken schrieb:
So wie ich das herauslese bringt DLSS mir etwas, wenn ich statt 2K in FullHD spiele? O_o
Wenn du DLSS Quality bei 1440p aktivierst, muss deine GPU nur noch die Performance für 1080p liefern(die Renderauflösung ist dann 960p aber DLSS selbst kostet auch etwas Performance)

Dementsprechend sind deine FPS auch so hoch wie sie mit 1080p wären, während du bei guter Implementierung keinen oder nur einen geringen Unterschied zu nativen 1440p bemerken wirst, in manchen Fällen sieht’s sogar besser aus.

Ich kann mit meinen 3440x1440 in vielen Spielen auch auf DLSS Balanced stellen, was dann einer Renderauflösung von ca 1980x830 entspricht, ohne dass ich einen wirklich spürbaren Qualitätsverlust bemerke, während ich ganz normal spiele.

Stell es doch einfach mal an und schau was passiert.
Du bekommst mit DLSS Quality 25-50% mehr Performance, mit DLSS Balanced in Richtung 40-80%(mehr in RT, weniger in Rastertiteln) und wenn du bereits genug FPS hast und nicht noch mehr brauchst, limitierst du sie einfach auf den Wert und bekommst mit DLSS dann stattdessen einen geringeren GPU Verbrauch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BlueBringer und Intruder
sethdiabolos schrieb:
Bei dem Testsystem ist ein CPU-Limit auch schon ohne DLSS gegeben. Was hat man bitte erwartet?

Hat wer behauptet, dass es anders war / wäre?

Einfach mal weniger rum-ranten und sich an den Usertest erfreuen.
 
  • Gefällt mir
Reaktionen: zogger CkY
Im Vergleich zu AMD GPUs verursachen Nvidia RTX GPUs typischerweise erheblich mehr CPU Last.

Das haben HUB in 2 Vidoes nachgewiesen. Das geht so weit, dass sogar beim Wechsel von Vega56, RX590 oder 6600XT auf RTX 3060 oder jetzt auch 4060 die FPS sinken (!!). Obwohl die natürlich deutlich mehr Rechenpower haben. Wir reden hier von CPU < 5600x, obwohl auch da bei schnelleren GPUs wie >= 3090 noch Verluste sind.

Das Phänomen wird offensichtlich durch DLSS noch weiter verstärkt.

Heisst umgekehrt, dass Nvidia RTX für Budget Gaming die denkbar schlechteste Wahl sind. Ergo sind alle 50er und 60er Nvidia RTX Karten technisch betrachtet für die Tonne, weil die nur mit teuren CPUs brauchbar laufen.

Naja, für Nvidia könnte es schon passen, die Leute kaufen ja trotzdem.
 
  • Gefällt mir
Reaktionen: BlueBringer und blackiwid
Taxxor schrieb:
Was bedeutet man bekommt mit FG immer mehr als die CPU liefern kann, also hilft es immer im CPU Limit.
Ist doch evident, fg interpoliert an sich nur die eingehenden fps, unabhängig von der vorliegenden cpu Auslastung.
Allerdings würde das Vorgehen ein cpu-limit auch nicht bekämpfen, das geschieht durch vorherige Reduzierung der nativen fps, was wiederum vermutlich "nvidia reflex" sicherstellt.
 
Suspektan schrieb:
Allerdings würde das Vorgehen ein cpu-limit auch nicht bekämpfen, das geschieht durch vorherige Reduzierung der nativen fps, was wiederum vermutlich "nvidia reflex" sicherstellt.
Wie gesagt du kannst die FPS ja auch selbst dorthin limitieren, wo du sie haben willst und wo du dir recht sicher bist, dass die CPU sie schafft.

Ich sehe nicht, wo es sich dann "nicht verallgemeinern lässt", dass FG bei CPU Limits hilft.
Es bekämpft sie ja nicht per se, sondern bietet einem die Möglichkeit das selbst zu tun.
Man könnte maximal sagen, dass es ohne sonstige Anpassungen, wie oben beschrieben, nicht hilft, aber das sollte ja klar sein, wenn man versteht, was FG macht.
 
Taxxor schrieb:
Setzt man mit FG das FPS Limit auf 90 fest, muss die CPU nur noch 45 FPS liefern -> man ist nicht mehr im CPU Limit und die Frametimes werden glatter.
Die Aufgabe sollte eigentlich nvidia reflex übernehmen, was für dlss 3 eh Voraussetzung ist, sonst müsste man ja je nach Spiel Frametimes bzw. Cpu limit ermitteln und daran die fps Grenze anpassen, viel zu unkomfortabel.
Ergänzung ()

Taxxor schrieb:
Ich sehe nicht, wo es sich dann "nicht verallgemeinern lässt", dass FG bei CPU Limits hilft.
Es hilft natürlich in dem Sinne, dass die Fps steigen, logisch.
Ob aber das cpu Limit selbst auch stets durch fg eliminiert wird, weiß ich nicht.
 
Suspektan schrieb:
Die Aufgabe sollte eigentlich nvidia reflex übernehmen, was für dlss 3 eh Voraussetzung ist
Reflex haut die FPS lediglich minimal unter das gesetzte Limit bzw die Refresh Rate des Monitors.
Habe ich einen 144Hz Monitor, dann habe ich ohne Reflex 144FPS und mit Reflex ist dann bei ~140 Schluss.
Das hilft nicht wirklich bei CPU Limits.

Suspektan schrieb:
sonst müsste man ja je nach Spiel Frametimes bzw. Cpu limit ermitteln und daran die fps Grenze anpassen, viel zu u komfortabel.
Ich weiß nicht, wie du es bei dir handhabst, aber ich habe in jedem Spiel ein FPS Limit gesetzt.
Wenn ich merke, dass ich ab und zu unter das Limit falle aufgrund meiner CPU, dann ist es auch kein Akt, das Limit anzupassen und FG zu aktivieren.

Beispiel Hogwarts Legacy. Hab ich ohne FG mit einem 60FPS Limit gespielt. An einigen Stellen sind die FPS auf 45-50 eingebrochen, was auf die CPU zurückzuführen war.
Also FG aktiviert und das FPS Limit auf 90 gesetzt und über das gesamte Spiel keine Veränderungen der FPS mehr gehabt. Fertig.

Ergänzung ()

Suspektan schrieb:
Es hilft natürlich in dem Sinne, dass die Fps steigen, logisch.
Ob aber das cpu Limit selbst auch stets durch fg eliminiert wird, weiß ich nicht.
Es eliminiert es nicht alleine, dafür musst du schon selbst auch noch was tun.
Deshalb ja die Aussage, dass es "dabei hilft". Helfen bedeutet unterstützen, nicht die alleinige Lösung sein.
Es hilft dir dabei, deine FPS so einzustellen, dass die CPU nicht ins Limit läuft, ohne dass du ein ruckeliges Bild bekommst, weil das FPS Limit dafür zu niedrig ausfällt.

Und dann muss man auch noch unterscheiden, ob ein Spiel durch das CPU Limit unruhig ist oder ob es winfach nur darum geht, dass sich einem die FPS zu ruckelig anfühlen.
Wenn nämlich letzteres der Fall ist, braucht man sich tatsächlich um gar nichts weiter kümmern und kann einfach FG einschalten und doppelte FPS genießen.
Wobei ich auch hier dann immer lieber ein Limit setzen würde, damit die FPS nicht zu sehr schwanken, das gilt aber unabhängig davon ob die CPU oder die GPU der Grund für die Schwankungen sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna
LencoX2 schrieb:
Heisst umgekehrt, dass Nvidia RTX für Budget Gaming die denkbar schlechteste Wahl sind. Ergo sind alle 50er und 60er Nvidia RTX Karten technisch betrachtet für die Tonne, weil die nur mit teuren CPUs brauchbar laufen.
Ganz so schwarz würde ich es nicht sehen. Der Preis ist nur zu hoch! Weil nvidia sich die Features eben bezahlen lässt! Gerade für aufrüster ist das dann unter Umständen echt ein Griff ins Klo.
 
Taxxor schrieb:
gerade bei Hogwars Legacy hat FG mir geholfen, sämtliche CPU Drops zu eliminieren, die man im Schloss hatte.
Das mag ja sein, aber deine Grafikkarte wurde ja nicht vermarktet (nativ totaler Schrott aber dank DLSS ne tolle Karte) die 4090 ist die einzige Karte im Lineup das Preis / Performance zur 3090 massiv zu gelegt hatte.

Auch hast du die vermutlich grad schnellste Gaming CPU in der Welt und Gasualdo hat ja argumentiert das man mit wenig Budget und der 4060 da profitieren kann, das halte ich da für ein Extremfall.
Ergänzung ()

LencoX2 schrieb:
Naja, für Nvidia könnte es schon passen, die Leute kaufen ja trotzdem.
Das stimmt so nicht, ich höre anderes, ich weiß das ist das Meme oder so, und ja 0 Karten werden sie nie verkaufen, aber gerade so Einzelhändler und sowas aber auch Versandhändler verkaufen fast 0 und gehen teilweise auch Pleite offenbar daran zumindest laut Moores Law is not Dead Youtube channel der Quellen bei Einzelhändlern und sowas zitiert.

Das sie bei OEMs und in Notebooks natuerlich noch verkauft werden, bis sich da was aendert dauert immer alles sehr lange, sieht man ja das bis heute die Mehrzahl der Thinkpads und meist die besseren mit Intel CPUs daher kommen obwohl AMD viel besser ist.
 
Für mich liest sich FG wie eine Mogelpackung. Der fps counter wird nach oben getrickst. Bilder zwischen geschoben.. Wie bei TV 's 800hz bla Bla interpoliert. Gut erkennbar daran das zwar mehr fps da stehen. Es sich aber nicht unbedingt runder anfühlt. Inputlag ist ja auch nicht für jedes Spiel zuträglich. Tricks die dem dann wieder entgegen wirken sollen... 😵 Ich weiß es ist viel komplizierter und sehr vereinfacht... Aber nv soll das Zeug im highend lassen. Unten und in der Mitte ne anständige Schippe bei einer neuen gen drauf packen und gut ist.
 
Matthias80 schrieb:
Gut erkennbar daran das zwar mehr fps da stehen. Es sich aber nicht unbedingt runder anfühlt.
Dass es sich runder anfühlt ist ja exakt der Nutzen von FG. Was es nicht bewirkt ist, dass es sich entprechend responsiver anfühlt, natürlich nicht, weil der Input lag nicht mit den höheren FPS runter geht, sondern im Gegenteil nach oben geht, zumindest, wenn man es mit dem vorherigen Input Lag vergleicht, wenn man kein FG aber Reflex an hatte.

Aber ich hab es schon öfter geschrieben: Für mich ist ein Sprung von 50 auf 100FPS und das damit einhergenende flüssigere Bild ein größerer Vorteil als eine Erhöhung der Latenz von 40ms auf 60ms jemals ein Nachteil sein könnte.

Vor allem, wenn der ach so hohe Input Lag als Nachteil genannt wird. Guess what, Spiele, die kein Reflex bieten haben mit 50FPS einen mindestens genau so hohen Input Lag, wie ein Spiel, welches mit FG+Reflex seine 50FPS auf 100 verdoppelt.
Bei ersteren beschwert sich niemand, dass der Input Lag ja viel zu hoch und das Spiel daher nicht oder schlecht spielbar wäre.
Nur jetzt, wo man in Spielen mit FG den Vergleich anstellen kann, weil man auch Reflex aktivieren kann, ohne FG zu nutzen, wird gesagt "Schau mal wie viel höher der Inpu Lag mit FG im Vergleich ist".

Und das wird dann als Negativpunkt überall benannt, obwohl das in Spielen ohne Reflex mit genau so hohem Input Lag nie ein Thema war, und für die AMD Nutzer auch in den Spielen mit Reflex nie ein Thema war.


Oder wie viele Posts gibt es hier darüber, dass Spiele, die Reflex bieten, mit AMD unspielbar wären, weil sie bei 50FPS 65ms statt 40ms Input lag haben?
Und dann kann man als Nvidia Nutzer Reflex+FG nehmen und hat 60ms Input lag bei 100FPS.

Dann wird gesagt "man hat nun zwar 100FPS auf dem Bildschirm, aber der Input Lag ist ja jetzt 20ms höher als ohne FG, da ist ein riesiger Nachteil".
Stimmt, der Input Lag ist höher, als mit Reflex und ohne FG, aber wenn das ein genereller Nachteil sein soll, der FG unbrauchbar macht, was soll man dann AMD Nutzern sagen, die währendessen 65ms bei 50FPS haben?

Dann müsste man auch sagen AMD Karten sind unbrauchbar, weil zu hoher Input Lag. Sagt natürlich keiner, aber aus dem gleichen Grund kann man das auch über FG nicht sagen.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Stimmt, der Input Lag ist höher, als mit Reflex und ohne FG, aber wenn das ein genereller Nachteil sein soll, der FG unbrauchbar macht, was soll man dann AMD Nutzern sagen, die währendessen 65ms bei 50FPS haben?
Reflex passt das Framelimit quasi dynamisch an, um die gpu nicht zu stark auszulasten und so einen Überlauf der Renderpipeline zu verhindern.
Mit amd gpus lässt sich der Prozess nicht vollautomatisiert bewerkstelligen, aber manuell ja dennoch die min. Fps ermitteln, unter welche man dann begrenzt.
Ist natürlich aufwändiger, aber machbar, also weiß ich gar nicht, ob der Input lag mit nvidia reflex abseits des Komforts einen grundsätzlich bedeutenden Unterschied zu amd gpus bringen muss.
 
Ob ich jetzt mit 60fps 50ms inputlag habe oder mit FG dann 120fps und 60ms inputlag fällt doch gar nicht mal auf. Vorallem da man ohne FG diese 120fps gar nicht erst hätte.
Man tauscht etwas was man gar nicht bis kaum merkt gegen eine flüssigere darstellung

Früher wurde mit prerendered frames =2-3 standartmäßig gespielt und bis auf n paar counterstrike esportlern hat's auch keiner gemerkt.. geschweige denn gejuckt.

Und in n Singleplayer Game ist das ja wohl eh wurscht...
Zb bei Diablo..
ich hab FG +dlss Q +framecap und merke 0 Unterschied zu nativ was inputlag angeht außer das die rtx4080 nur noch die Hälfte verbraucht.
Davon mal abgesehen das DLSS-Q dem nativen TAA qualitativ haushoch überlegen ist.
In witcher3 ist das auch ne super Sache ohne merkbare Nachteile.

10-15ms mehr oder weniger inputlag von dem wir hier ständig reden fällt doch keiner Sau auf.
Die meisten sind hier mit LCD Monitoren unterwegs die so n inputlag schon von Haus aus haben..
geschweige denn die konsoleros am billig Fernseher


Ich will FG mal in nem Shooter testen.. call of duty oder sowas.. denn erst da wird das ganze Thema interessant.
und ich gehe davon aus daß 99% hier im Forum die FG verteufeln das im Blindtest gar nicht merken werden
 
  • Gefällt mir
Reaktionen: Celinna und Taxxor
Wir reden hier aber von PCIe 3, richtig? dürfte witzig werden, eine 4060 ist nur mit 8 lanes angebunden.

In dem Sinne ist der Test halt nette Theorie...
 
Zuletzt bearbeitet:
Bei vollen Kernen des 10400 kommen aber schon 60fps raus.
Das reicht für die meisten "normalen" Gamer.
Dann könnte man in CP77 mit dlss hier auf 1440p gehen und die 60fps die von der cpu limitiert werden halten, bzw. den Stromverbauch halt auch senken und damit Abwärme, lautstärke usw. .

Und auf einem 5700g mit FSR 2.0 wird es erst richtig interessant, wobei das nur die neueren Games haben und dort wieder generell zu wenig Leistung vorhanden sein dürfte, leider.
 
DLSS rendert in einer niedrigeren Auflösung, natürlich benötigt man genügend CPU-Leistung um diese niedrigere Auflösung zu stemmen.
Nicht umsonst werden GPU-Gaming-Tests bei 720p gemacht.
 
TenDance schrieb:
DLSS rendert in einer niedrigeren Auflösung, natürlich benötigt man genügend CPU-Leistung um diese niedrigere Auflösung zu stemmen.
Nicht umsonst werden GPU-Gaming-Tests bei 720p gemacht.
Hust, nö aber du meinst das Richtige, die CPU Leistung ist annähernd in jeder Auflösung gleich und CPU Test werden in 720p gemacht damit man nicht in einem CPU Test in ein GPU Limit läuft und somit das volle Potential der CPU darstellen möchte .In GPU Test testet man auch in 4k weil man die Leistungsfähigkeit der GPU testen möchte und Diese i.d.R. der erste limitierende Faktor ist und die CPU eigentlich " mehr FPS" liefern könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen
Donnidonis schrieb:
Ich hab in einem anderen Thread auch schon nachgefragt, da ich nicht so tief in der Materie drin stecke: welche Spiele unterstützen denn DLSS, aber kein FSR? .
War thunder. Sogar XESS würde implementiert. Mit meiner 6900XT gehe ich hier also leer aus. Wobei zumindest der DLSS Mode so müll sein soll dass ihn eh keiner verwendet weil er alles blurrt. Klar kein neuer Titel, aber meist unter den top 20 in den Steam Charts und online sind meistens auch 100000-150000 Spieler. Da sollte sowas eig funktionieren, tut's aber nicht :D
 
Zurück
Oben