Bericht DLSS 4.5 MFG ausprobiert: Erste Eindrücke zu Dynamic MFG und MFG 6×

Nolag schrieb:
Man muss sich einfach nur von dem Gedanken trennen, dass die realen Frames noch eine besondere Rolle spielen
Nichtsdestotrotz muss eine Rechnung mathematisch aufgehen.

Wie DMFG arbeitet habe ich verstanden. Die grundsätzliche Latenz von FG ist und war nicht teil meiner Kritik. Der Kritikpunkt war, dass wie von manchen gefordert, ein nicht ganzzahliger Faktor nicht mit der aktuellen alternierenden FG Methode (render und [mehrere] generierte frames im Wechsel) kompatibel ist. Weil entweder wäre permanent die Bildausgabe ungleichmäßig oder der Bildinhalt unterschiedlich alt.

Wenn doch krumme Faktoren (ala 1,33x, 3,25x ect) möglich sein sollten, dann erkläre es mir bitte wie das funktionieren kann.

Eine Möglichkeit, wie man das Problem lösen kann, habe ich bereits beschrieben.
Fika schrieb:
Wenn müssten die Render-Bilder und die Zwischenbilder völlig unabhängig voneinander /asynchron laufen. Womit die Zwischenbilder zu den alleinigen angezeigten Bildern werden, und die Render-Bilder nur noch die Bildgenerierung füttert, selbst aber nicht mehr angezeigt werden. Dann kannst jeden beliebigen Faktor nehmen.
So arbeiteten die aktuellen Methoden aber nicht. Mich würde wirklich interessieren, wie es eurer Meinung nach alternierend funktionieren soll.
Ergänzung ()

Nolag schrieb:
weil nicht jeder zurückgehaltene Frame direkt ausgegeben werden kann
Es wird vermutlich auch nicht der gerenderte frame zurückgehalten um zwischen den Faktoren hin und her zuschalten (nur für das grundsätzliche FG), sondern das rendern wird einen Momen zurückgehalten. Das ganze soll schließlich temporal synchron sein.
 
Zuletzt bearbeitet:
@cypeak
Anno 1701: https://www.pcgameshardware.de/CPU-CPU-154106/Tests/PCGH-Test-35-Prozessoren-im-Vergleich-656379/
Comanche 4: https://www.computerbase.de/artikel/grafikkarten/connect3d-radeon-9800-pro-test.175/seite-6
RTCW Enemy Territory: https://www.computerbase.de/artikel/grafikkarten/geforce-fx-5900-roundup-test.264/seite-8
Halo 2: https://www.computerbase.de/artikel/grafikkarten/fuenf-mal-geforce-fx-5900-xt-test.323/seite-16
FEAR: https://www.computerbase.de/artikel/grafikkarten/asus-eax1800xt-top-test.523/seite-9#abschnitt_fear
Earth 2160: https://www.computerbase.de/artikel/grafikkarten/asus-eax1800xt-top-test.523/seite-12
Oblivion: https://www.computerbase.de/artikel...950-xtx-und-x1950-crossfire-test.598/seite-15
Spellforce 2: https://www.computerbase.de/artikel...950-xtx-und-x1950-crossfire-test.598/seite-19
Colin McRae Dirt: https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-3870-rv670-test.720/seite-14
Clive Barker's Jericho: https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-3870-rv670-test.720/seite-13
Lost Planet: https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-3870-rv670-test.720/seite-26
Crysis: https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-4850-rv770-test.832/seite-17
Call of Juarez: https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-3870-rv670-test.720/seite-23
Cryostasis: https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-5970-test.1131/seite-12
Stalker: https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-5970-test.1131/seite-15

Komische Automatengames sind das. Maxed out liefen die alle wie ein Sack schrauben und gerade Oblivion war unspielbar, selbst für damalige Verhältnisse.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
bin ich eig der einzige den bei MFG die Unschärfe stört?^^ ist mir bei einigen Titeln echt störend aufgefallen. Und wird für mich bei zunehmender MFG Skalierung schlimmer. Ist aber wie gesagt Titel abhängig. Bei Standbildern fällt es natürlich nicht auf.
 
Mich würde interessieren wie schnell und dynamisch die Umschaltung funktioniert.

Ich nutze zum Beispiel den FG x2 Faktor bei Battlefield 6. Trotz 5090 und 9850X3D erreiche ich im Multiplayer in meiner Auflösung (5K2K) bei 165Hz und Ultra Preset und DLSS Quality (K), nicht durchgehend die 158 FPS (Gsync + Reflex). Die Basis FPS liegen im Schnitt bei 130-140FPS, von daher liegt die Latency auch mit FG X2 bei nur 4-5ms. Das Spielgefühl ist allerdings durch FG besser, da die FPS nicht mehr einbrechen.

Wie würde sich jetzt dynamic MFG in solch schnellen Spielen verhalten? Ist es dafür überhaupt geeignet?
 
@t3chn0 Da würde ich zuerst mal auf DLSS-P Preset M umschalten, bei nur 165Hz zahlt sich höchstens noch der 3x Modus aus
 
Bei competitiven Shootern willst du (wenn du gewinnen willst) immer möglichst geringe Latenz bei möglichst vielen FPS, damit fällt generell fg/MFG etc raus.
 
  • Gefällt mir
Reaktionen: janeeisklar und Andre83hro
Fika schrieb:
ein nicht ganzzahliger Faktor nicht mit der aktuellen alternierenden FG Methode (render und [mehrere] generierte frames im Wechsel) kompatibel ist.
Das sehe ich allerdings auch so.
Fika schrieb:
Eine Möglichkeit, wie man das Problem lösen kann, habe ich bereits beschrieben.
Ok, und das ist auch das was ich ausdrücken wollte. Diesen entscheidenden Post habe ich übersehen.
Fika schrieb:
So arbeiteten die aktuellen Methoden aber nicht. Mich würde wirklich interessieren, wie es eurer Meinung nach alternierend funktionieren soll.
Ok, damit stelle ich fest, dass ich in deinem Lager bin und nicht in dem anderen Lager ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fika
ElliotAlderson schrieb:
Maxed out liefen die alle wie ein Sack schrauben und gerade Oblivion war unspielbar, selbst für damalige Verhältnisse.
Aber aber, heute wird doch gar nicht mehr optimiert, die bösen Entwickler und erst die UE5, Teufelswerk. Youtube-Universität.
 
Jungs. Am Ende zwingt euch niemand das Spiel oder das Software/Hardware Feature zu verwenden.
 
Alexander2 schrieb:
Das liegt nur an der Integration in Spiele und damit Anwendung aufnur die Richtigen Inhalte sowie zugriff auf Motion Vector. Alles keine Nvidia Alleinstellungsmerkmale nur eine Frage der Integration.

Nvidia MFG ist nichts anderes als all die anderen MFG. Aber sie verkaufen es/werben damit als wäre es ein Leistungsfeature.

Vorallem war Nvidia bei weitem auch nicht die ersten mit dem Feature Glotzen konnten das schon lange bis 600FPS hab ich schon gesehen.
Und dabei auch nie vergessen, Jedes FG oder MFG (was das gleiche ist, es werden nur mehr Bilder berechnet, aber Nvidia verkauft es als einzigartig und nur für bestimmte Karten :D )
erhöht die Latenz und man braucht für ein gutes Spielgefühl IMMER die passende Grafikkartenleistung. Dagegen hilft auch das Nvidia Marketing und FG nicht.
Selten so viel Schwachsinn auf einmal gelesen. MFG ist einzigartig in der Implementierung wie Smooth, wie gut das Frame Pacing ist und wie minimal die Artefakte sind. Du vergleichst ernsthaft LLS und Frame Interpolationen von TVs mit Nvidia MFG? Und stellst Sie gleichwertig da? Was nimmst du bitte?
 
ElliotAlderson schrieb:
Maxed out liefen die alle wie ein Sack schrauben und gerade Oblivion war unspielbar, selbst für damalige Verhältnisse.
ja, nee..und was ist daran jetzt die erkentniss??
wenn man die games auf maximalen details laufen ließ war die performance schlecht??
in den meisten dieser tests findet sich so ein absatz wie der hier:
Alle Benchmarks werden mit maximalen Details ausgeführt, damit die Grafikkarte möglichst hoch belastet wird.
wenn man es darauf anlegt wird man auch heute games finden welche selbst die stärkste hardware in die knie zwingt...
wenn man sich die verlinken benchmarks anschaut wird man feststellen dass unter den schlechter performten grakas in diesen benchmarks auch etliche modelle waren die sehr weit verbreitet waren - wie konnten wir damals mit diesen bloß spielen? denn bei einem shooter waren unter 30 fps genauso mies wie heute...
der zauber lag in den schiebereglern in den einstellungen: einige moderate anpassunge machten aus unspielbaren framesamam, ende gut spielbare games, was für eine doch gegebene skalierbarkeit spricht.

ElliotAlderson schrieb:
und gerade Oblivion war unspielbar, selbst für damalige Verhältnisse.
ja, oblivion war definitiv fordernd für die hardware und wenn man alles auf max schob, hat man so ziemlich alles in die knie zwingen können.
aber damals gab es diesen anspruch "alles auf max" nicht in dieser form.
auch hier waren einstellungen das entscheidende; nehmen wir eine karte wie die nvidia gtx 6600gt - die taucht nichtmal im verlinkten benchmark auf und unter max war das eine 5fps-diashow. das weiß ich weil ich diese karte selbst hatte.
aber wenn man gras und schatten runterregelte bzw. deaktivierte um die menge an alpha-blending zu reduzieren und statt hdr-rendering das bloom verwendete lief das game mit ca 50fps. es sah natürlich nicht so gut aus wie mit maximalen details, aber es war gut spielbar.

insbesondere muss man sich den zeitraum anschauen: zw. ca 2000 und 2010 war die entwicklung der hardware so schnell dass eine neue grafikkarte nach 2 jahren zum alten eisen gehörte.
teilweise war es entscheidend ob eine graka z.b. directx9 unterstützte oder nicht; ende der 2000er war es dann directx10. anfgang der 2000er waren es directx8 shader...
grafikkarten welche hier nicht auf dem neuen stand waren, hatten es generell schwer.
ich mein in diesen 10 jahren ist man von directx7 (~1999) zu directx11 durchmarschiert inklusive damit einhergehenden neuen features im rendering.
seit nunmehr 10 jahren sind wir mit directx12 unterwegs und vor ~6 jahren kam das raytracing als dxr dazu. (ansonsten mesh shaders). der entscheidende masstab für die erwartete performance ist nicht welche rendering features die gpu's beherrschein, sondern vieviele recheneinheiten sie mitbringen und wenn es trotzdem nicht reicht, ja, dann muss upscaling her...
 
  • Gefällt mir
Reaktionen: Andre83hro
cypeak schrieb:
ja, nee..und was ist daran jetzt die erkentniss??
Dass du hier mal wieder Unfug geschrieben hast:
cypeak schrieb:
auf eines möchte ich in dem zusammenhang hinweisen: bei der entwicklung von gaming engines und games war eine starke innovationstriebfeder immer auch die einschränkung durch technik: wenn hardware etwas nicht gut abkonnte, musste man wege finden berechnungen zu vereinfachen oder algorythmen zu entwicklenm die nur näherungsweise rechnen, aber das gut genug machen und vor allem richtig performant.
(wer sich mal mit dem quelltext einiger älterer id titel beschäftigt hat, weiß wovon ich spreche..)
man konnte sich nicht erlauben etwas abzuliefern dass nur auf dem oberen viertel der verfügbarer hardware performant genug lief oder man hat schlicht potentielle käufer verloren.
Denn genau das ist in der Vergangenheit der Fall gewesen. Es war sogar noch schlimmer! Spiele die selbst auf highend Hardware nicht flüssig liefen, wenn du die Settings nicht runtergedreht hast. Man hat Spiele für zukünftige HW Generationen entwickelt.

Heute gibt es nichts, was in 4K mit DLSS nicht flüssig auf einer 5090 läuft. Davon konnten wir früher nur träumen und trotzdem behaupten User wie du, dass weniger oder gar nicht optimiert wird. Wo war denn dann die Optimierung bei Anno 1701, Oblivion, Earth 2160 oder Colin McRae Dirt?
 
  • Gefällt mir
Reaktionen: Quidproquo77 und usmave
@Wolfgang

Dieser Teil hier:
Das SDK zu DLSS 4.5 wurde bereits zum Start der Technologie ausgeliefert, bis jetzt gibt es aber noch kein Spiel, das es nutzt. Spieler müssen stattdessen den Override in der Nvidia App konsultieren, um aktuell DLSS 4.5 Super Resolution zu nutzen, in der Regel über den Override „Recommended“
ist einfach nicht wahr.

Wir haben am 15. 1. 2026 Trails Beyond the Horizon released, mit in-game Auswahl von DLSS 3, 4 und 4.5.

(Und im übrigen ist die Möglichkeit Preset-Auswahl in ein Setting in einem Spiel einzubauen absolut nicht neu; wir haben das in diversen Releases für DLSS 4 seit langem)
 
cvzone schrieb:
Und das stimmt eben nicht, wie ich auch lange geglaubt habe.

Jeder einzelne Frame muss in der VRR Range (z.B. bei 120 Hz 8,3ms) bleiben. Liegen die Frames zu weit auseinander (dauern zu lange) gibt es mittendrin mal Tearing, selbst wenn die FPS (=Summe alle Bilder in einer Sekunde) unterhalb der Hertzzahl des Monitors liegen. Ein Wert von z.B. 90 FPS kann auch mal einen Ausreißer-Frame haben, der dann als Tearing auftritt.

Streng genommen liegt das VRR window also bei dem Beispielmonitor nicht bei 120 FPS sondern bei 8,3ms. Daher aktiviert man ja Gsync + Vsync.

Und genau das wird bei Blur Busters ja auch erklärt, was du verlinkt hast.
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/

Anhang anzeigen 1704061
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/15/
Nochmal: Die Links die du geposted hast, sind 6 Jahre alt, da gabs noch kein framegen.

2: Ich habe keinen Grund Vsync anzuschalten, weil ich mit gsync + framelimit auf vrr range KEIN TEARING habe. Und das kann man ganz einfach mit der nvidia pendulum demo testen.

Also warum sollte ich oder andere sich auf vsync einlassen wenn es mir den nachteil der unflexiblen maximalen fps range bringt ?

https://www.nvidia.com/en-us/geforce/community/demos/
 
  • Gefällt mir
Reaktionen: Andre83hro
Sly123 schrieb:
Lossless Scaling kann nicht im Ansatz mit nVidias FG mithalten. Habe es genutz und die zahlreichen Artefakte geduldet, weil ich keine Wahl hatte.(3090)
Ja und?

Nvidia braucht Ewigkeiten um das hinzubekommen was ein einzelner Programmierer seit über einem Jahr zum Kauf anbietet ;-)
 
Hotzenplotz45 schrieb:
sind 6 Jahre alt, da gabs noch kein framegen.

2: Ich habe keinen Grund Vsync anzuschalten, weil ich mit gsync + framelimit auf vrr range KEIN TEARING habe.
Ändert aber nichts am Grundprinzip, was weiterhin gilt, da dies eine Sache zw. GPU und Monitor ist und die Framegen daran nichts ändert. Und das du in der Praxis kein Tearing hast, heißt nicht, dass es technisch nicht auftreten könnte.

Hat man 100 FPS ist es natürlich recht wahrscheinlich, dass alle Frames in dieser Sekunde ähnlich sind und damit im VRR window liegen, aber das muss nicht immer so sein und genau dann (und nur dann!) greift Vsync ein, wenn es eingeschaltet ist.

Wenn du meinst "ey, der eine Frame mit Tearing alle paar Minuten ist mir egal und den merke ich eh nicht", dann ist das völlig in Ordnung. Aber Gsync + FPS Limit alleine kann technisch Tearing nicht zu 100% vermeiden.
 
Zuletzt bearbeitet:
Zurück
Oben