News Nvidia DLSS 4.5: MFG 6×, dynamisches MFG und besseres Super Resolution

Taxxor schrieb:
Genau deshalb sollte es ja nicht so aussehen, wie in dienem Bild, da dort Preset J gewählt ist und somit kein 4.5.
Da muss ja entweder "M" oder "Neuste" stehen (L ja irrelevant wenn man nicht mit DLSS Ultra Performance unterwegs ist)
Ja sry das hatte ich nicht um gestellt mein fehler ^^
 
ich würde mach einer kurzen Session in Hogwarts Legacy auch sagen das DLSS 4.5 besser aussieht, merke aber auch das ein paar % Leistung fällig werden.
 
Euphoria schrieb:
Ich finds traurig, dass die Entwickler heutzutage in vielen Bereichen so faul geworden sind, da wird rausgerotzt und dann damit argumentiert, dass man die tollen Features nutzen soll, um spielbare Frameraten zu erreichen, statt mal ordentlich zu optimieren.
Es spielt keine Rolle, ob durch Software oder Hardware mehr Leistung frei wird. Sonst könnte man ja sagen, dass du mit dem Kauf deiner RTX 4090 die Faulheit der Entwickler unterstützt hast. Wozu also die Optimierung? Auf Euphorias PC läuft es doch.
 
  • Gefällt mir
Reaktionen: Loopman, ElliotAlderson und Taxxor
Sobald es 16x Frame Generation gibt, steige ich wieder bei einer neuen Nvidia Grafikkarte ein.
Aus 60 FPS werden dann schnell mal 960 FPS - wie geil !
 
man ist mit Quality mode Preset M wieder ungefähr da wo man nativ ist von der leistung her...
allerdings mit bedeutend besserer bildqualität
 
Bei jedem Spiel einzeln einstellen oder über global ?

Und reicht "Neueste" ?

Kann da mal bitte jemand was dazu sagen ?
 
  • Gefällt mir
Reaktionen: SockoRVD
R3vAn_88 schrieb:
ich würde mach einer kurzen Session in Hogwarts Legacy auch sagen das DLSS 4.5 besser aussieht, merke aber auch das ein paar % Leistung fällig werden.
Reicht die bessere Qualität aus, dass DLSS 4.5 Balanced gleichwertig aussieht zu DLSS 4 Quality?
 
Heute Nachmittag mal ausprobieren, bin gespannt, ob ich in UWQHD jetzt von 4 Balanced auf 4.5 Performance runter kann, weil um auf Balanced zu bleiben lohnen sich die 10-15% Leistungsverlust, die man hier liest, wohl eher nicht.
 
NguyenV3 schrieb:
Reicht die bessere Qualität aus, dass DLSS 4.5 Balanced gleichwertig aussieht zu DLSS 4 Quality?
Meiner Meinung nach ja, sogar n bischen besser durch weniger Ghosting und besseres Anti alieasing
 
  • Gefällt mir
Reaktionen: rumpeLson und NguyenV3
NguyenV3 schrieb:
Reicht die bessere Qualität aus, dass DLSS 4.5 Balanced gleichwertig aussieht zu DLSS 4 Quality?

Nutze seit DLSS 4 eigentlich nur noch Balanced, kann das später aber mal testen.
 
  • Gefällt mir
Reaktionen: NguyenV3
Geilo..
Mal testen
 
man verliert etwa eine DLSS stufe an Performance für bessere Bildqualität würd ich jetzt sagen..

von der FPS Perspektive:
DLSS4 Quality mode = DLSS4.5 Balanced

von der Bildqualität:
DLSS4.5 Balanced > DLSS4 Quality
 
  • Gefällt mir
Reaktionen: rumpeLson
Also habe den Treiber aktualisiert und auch neu gestartet, aber Preset M taucht nicht in der Liste auf?!
 
@RegEditor Das Problem hatte ich hier auch.
Ich musste zusätzlich die neuste BETA-Version der Nvidia App (11.0.6.374) installieren, dann ging es. Kannst du in der App einstellen, dass er sich Vorabversionen ziehen soll. Musstest ihr das eigentlich alle machen oder geht es auch ohne Beta-Version?
 
  • Gefällt mir
Reaktionen: Snapuman
Blackfirehawk schrieb:
man verliert etwa eine DLSS stufe an Performance für bessere Bildqualität würd ich jetzt sagen..

von der FPS Perspektive:
DLSS4 Quality mode = DLSS4.5 Balanced

von der Bildqualität:
DLSS4.5 Balanced > DLSS4 Quality
Welches Preset?

Ich denke man müsste immer noch das Preset dazuschreiben.
Bei 1440p finde ich bisher das K mit Abstand am besten
 
  • Gefällt mir
Reaktionen: Snapuman
ein dynamischer Input-Lag? lol
damit kann man Leute wieder super verarschen
nicht nur, dass FRame generation den Input LAg weit nach oben schießen lässt, vor allem bei den rechnern, woe es dann genutzt wird, obwohl die rechner ja eh schon viel zu lahmarschung für die Funktion sind, nein, jetzt wird das noch multipliziert und auch noch als dritter Faktor ein dynamischer Laaag von bis addiert?
katastrophal!
Nvida wird wieder eine Folie rausbringen, wonach jeder mit inwe 60er Karte die anspruchvollsten Spiele in 4K und 240FPS zocken können soll.
Das Beispiel oben im Text geht übrigens gar nicht, das ist falsch, weil mathematisch nicht erreichbar. Wer denkt sich so einen Quatsch aus? Hallo Redaktion? lol
Man wird uns von NVidia sagen, man kann mit einer Fußhupe, die lediglich 30FPS (durchshcnittlich) schafft, soll man dann 120FPS bekommen, durchgehend.
Das absiert dann durch die Dynamik, dass dann halt in schlechten Zeiten 6x MFG aktiviert wird, udn das schankt dann permanent runter auf vielleicht nur 2x und wieder hoch.
Das dadurch aber extrem unetrschiedliche Input-Verzögerungen erzeugt werden, ist euch aber schon klar?
Das vertuscht NVidiai wie immer.
Und die 30FPS werden zwar am Monitor als 120FPS am OSD dargestellt, es bleiben aber 30FPS.
Nur spielt sich das nicht mal mehr wie 30FPS, sondern die dynamische Erzeugung wird das willkürlich weit nach unten schrauben.
Bisher war das dann statisch meinetwegen gefühlt nur noch wie 20FPS.
Jetzt wird dass dann zwischen einem Spielgefühl von 10-30 hin und herwabbeln, das kann man auch an einer Maus merken, wenn man das ausprobiert.
Wer sich jetzt auf irgendwelche Testergebnisse verlässt, die man nicht selbst gefälscht hat, der weiß, dass Laborergebnisse bei Nvidia nicht in der Realität vorkommen, siehe 1ms Bildschirmlügen.
Diese ganzen Antilag pi pa po Lügen funktionieren nur, wenn man ein High-End Gaminggerät besitzt und da nichts limitiert.
Wer eine Gamingkrücke hat, der wird von allen Seiten abgewatscht.
Also nicht nur die vielen Bildfehler, die sich bei weniger Ausgangs-FPS stark erhöhen, das Schmieren wird auch schlimmer, udn der Lag wird nicht nur höher, nein die ganzen Mechanismen von Nvidia funktionieren nich tmehr, wenn man keinen High-End-Prozessor im PC hat.
Der Prozessor wird nämlich unter eine viel höhere Last gesetzt, wenn man meint, man könnte mit seiner Flitzpiepe von GPU plötzlich Ultragrafik Raytracing betreiben.
Schießen die Bildraten etc nach oben, muss auch mehr getan werden, ist aber nicht mehr genug Power da, wird Antilag auch ausgehebelt und der stark erhöhte Lag sticht voll durch.
Man kann es also drehen udn wendne wie man will:
diese ganze Kinderkram ist schon imerm nur für leistungsstarke Rechner gewesen, die selber mindestens 60FPS auf die Waage bringen udn zuätzlich genügend Prozessorleistungauf reserve haben, um dann mit diesen Zusatzoptionen die Bilder künstlich zu erhöhen, um das ausgegebene Bild, also die Pixel, am Monitor noch ein wenig klarer zu machen und die Bewegungen smoother zu machen.
Es verbessert nie das Gefühl beim Zocken, eigentlich ist eher das Gegenteil die Regel, denn man muss so viel Leistung mitbringen, dass man die Verschlimmerung selbst nicht mehr merkt.
EIgentlich ist das alles ein großes Paradoxon.
Und je mehr Nvidia und andere sich mit den xfach Zahlen übertrumpfen wollen, und je mehr der dumme Käufer sich davon übertölpen lässt, desto schlimmer wirds nur noch.
Hat sich schon mal jemand gefragt,w arum diese 1000hz Monitore gebaut werden?
Für den einzig wahren Grund der Frame Generation.
Damit man von möglichst hohen(!) Bildraten noch viel höher kommt, damit Leute bei Counterstrike abgehen wie Sau.
Nicht, damit jemand seine Gaminggurke mit Gewalt mit bis zu 6x Bildraten auf "spielbare" 60 oder 120"FPS" bringt und sich dann alle neuen Games kauft, die aber eigentlich nicht mehr für den Rechner in hoher Grafikqualität spielbar sind.
Und ja, letzteres überwiegt definitiv den Spielemarkt.
NVidia freut sich, das die Karten nur deswegen gekauft werden (500 Euro für eher Einsteigerkarten nehmen, die rein rechnersich kaum schneller sind als die alte Generation, aber halt noch mehr MFG bietet und hohe Bildraten auf dem Papier dann 3fache Leistung suggereieren!?). Und Softwareherstelelr freuen sich, dass die plötzlich alle deren Spiele kaufen.
Da hat also niemand Interesse daran den Leuten die Wahrheit zu erzählen, es geht ums Geschäft, den Umsatz, Aktienmärkte.
 
CompuChecker schrieb:
Ich denke man müsste immer noch das Preset dazuschreiben.
Bei 1440p finde ich bisher das K mit Abstand am besten
K ist auch das Standardpreset für DLSS4, also eigentlich muss mans nicht dazuschreiben^^
Genau wie 4.5 immer M sein wird, es sei denn man stellts manuell um
 
  • Gefällt mir
Reaktionen: Snapuman und rumpeLson
Wolfgang schrieb:
@RegEditor Das Problem hatte ich hier auch.
Ich musste zusätzlich die neuste BETA-Version der Nvidia App (11.0.6.374) installieren, dann ging es. Kannst du in der App einstellen, dass er sich Vorabversionen ziehen soll. Musstest ihr das eigentlich alle machen oder geht es auch ohne Beta-Version?
nimm Nvidia Profile inspector
da kannst du alles im Globalen Profil einstellen (dlss override und presets)
die beiden neuen Presets tauchen noch nicht in der nvidia app auf und sind dort nur erreichbar unter "neuste version" aber nicht einzelnd anwählbar

aber ja man braucht auch die neuste beta version mit dem neusten treiber
 
BxBender schrieb:
ein dynamischer Input-Lag? lol
Den gibt es auch bei nativen fps, einfach mal nachdenken darüber...
 
  • Gefällt mir
Reaktionen: Blackfirehawk
CompuChecker schrieb:
Welches Preset?

Ich denke man müsste immer noch das Preset dazuschreiben.
Bei 1440p finde ich bisher das K mit Abstand am besten
M
ich gehe jetzt erstmal vom default preset von DLSS 4.5 aus
und in 4K ist M bedeutend besser als das alte K
 
Zurück
Oben