Bericht DLSS 4.5 MFG ausprobiert: Erste Eindrücke zu Dynamic MFG und MFG 6×

@Fika: nunja es werden 60 echte fps sein und 1,5x factor sind dann halt 30 künstliche frames die generiert werden, der 1,5x factor als float spielt keine rolle. es sind 30 frames, also 30int , bei 1,2x factor sinds halt 12 int lol die berechnungen sind eh viel komplizierter 😂
 
Fika schrieb:
Ich denke ich weis schon was du grundsätzlich meinst, aber sobald dezimal im Spiele ist, ist es nicht mehr integer / ganzzählig. Entweder mit oder ohne Nachkomm, beides gleichzeitig geht schlecht.

Mal dir eine Reihe Kästchen auf einen Block mit schön gleichmäßigen Abstand. Und dann versuchst irgendeine beliebige Kommazahl da ebenfalls gleichmäßig in den Lücken zu verteilen.

Wenn müssten die Render-Bilder und die Zwischenbilder völlig unabhängig voneinander /asynchron laufen. Womit die Zwischenbilder zu den alleinigen angezeigten Bildern werden, und die Render-Bilder nur noch die Bildgenerierung füttert, selbst aber nicht mehr angezeigt werden. Dann kannst jeden beliebigen Faktor nehmen.

Komplett richtig, hätte dann eher von float sprechen müssen aber dachte dann auch, gut wird trotzdem klar sein was gemeint ist.

Ja, bin bei dir. Allerdings in dem Beispiel mit 90 / 120, weils so schön glatt aufgeht. Wo wäre das Problem einfach dann die Ausgabe auf Echt-Echt-Interpoliert-Echt.... anzupassen? Also Faktor 1.3.

Die FT würde von 0,011 auf 0,008 sinken, der schlimmste Abstand zwischen Echt -Fake-Echt wäre 0,16 (also zwei echten) und damit gerade mal 0,5ms höher, als bei "pur nativ". Oder hab ich nen Denkfehler? Meinste wirklich das fühlt man? (Ernst gemeinte Frage, ich weiß es nicht)
 
Sun_set_1 schrieb:
Wenn man die grundfps auf 60 limitiert bekommt man insgesamt "saubere" 120 (Framegen) FPS die auch mit 120Hz gut funktionieren. Dann kannst aber vermutlich besser Vsync nutzen wie andere vorgeschlagen haben.

Ich habs diverse male getestet und für mich sind die "echten" 80-85 FPS mit Gsync und Reflex einfach gefühlt besser und der Austausch für 35 mehr FPS ist es mir nicht wert.
womit hast du die echten fps gemessen? bei mir wurden oft aus 60fps + fg nie 120, sondern oft so 90 ...
 
adfsrg schrieb:
Wäre das nicht hochproblematisch? Man wird wohl die fps so einstellen, dass sie zur Frequenz des Monitors passt. Wenn der nur 240 kann und trotzdem 250 berechnet werden, dann hat man doch Tearing. Oder verstehe ich da was falsch?
Ja, Tearing bekommst du dann zwangsweise. Wobei das halt etwas ist, was ab 240 Hz+ zumindest meiner Meinung nach kaum noch bis gar nicht mehr zu sehen ist.
Mintz schrieb:
@Wolfgang
Laut den Optionen in diesem Spiel kommt es bereits zum Einsatz oder etwa nicht? Es ist das hier: https://store.steampowered.com/app/3316940/The_Legend_of_Heroes_Trails_beyond_the_Horizon/
Da wurde anscheinend schon das DLSS 4.5 SDK genutzt, ja. Könnte dann das erste Spiel sein :)
Da geht es aber nicht um DLSS MFG 6x und Dynamic DLSS.
Sun_set_1 schrieb:
Ne sorry. Ich regel doch nicht 80 "echte" FPS+VRR auf 60 runter nur um dann 2x FG hinzuschalten zu können. Da finde ich die 80 "echten" FPS deutlich angenehmer.
Warum nicht? Die Variante mit FG würde auf dem Bildschirm deutlich flüssiger aussehen. Wenn es kein Competetive Shooter wäre, wo ich eh auf FG verzichten würde, wäre das für mich der Modus der Wahl Wäre mir lieber als 80 FPS mit besserer Latenz. 60 Render-FPS mit DLSS FG haben für mich in eigentlich jedem Spiel sehr gut funktioniert.
usernamehere schrieb:
Ich hab MFG 3x bei nem Kumpel mal ausprobiert und ich mags nicht. Das Bild wird flüssig, ja. Aber ich guck doch keinen Spielfilm. Wenn ich die Maus bewege und eine Taste auf der Tastatur drücke, habe ich gefühlt immer noch die gleiche Latenz wie mit der OG-Framerate (was auch Sinn macht). Damit bleibt es für mich etwas für Werbevideos, YouTube-Videos und nicht fürs Selbstspielen.
Nunja, das Bild flüssiger ist aber doch schonmal ein Mehrwert, da sind wir uns sicherlich alle einig. Und wenn die Latenz vergleichbar bleibt, ist das natürlich nicht so gut wie entsprechend deutlich mehr Render-FPS, zweifelsohne. Aber schlecht anfühlen wird sich das bei, sagen wir mal 60 Render-FPS (Wichtig!) sicherlich nicht.
MehlstaubtheCat schrieb:
Erlaubt MFG kein V-Sync auf ON, ist das soweit korrekt?
Richtig, DLSS FG erlaubt kein VSync, da es mit Frame Gen völlig kontraproduktiv wird (die Latenz wird übelst höher dadurch).
 
  • Gefällt mir
Reaktionen: Volvo480, Sun_set_1, Xes und 2 andere
Ich sehe schon unseren grünen CEO Huang auf der Bühne stehen und von der neuen MFG6080 Serie schwärmen, die durch MFG 10x schneller als die mal eingeführte 5090 ist und RTX nicht mehr real genug ist. Wenn neue Hardware zum Softwaretrick wird und NVIDIA auf die Idee kommt für MFG den Nutzer bezahlen zu lassen. NVIDIA Tiktok mit ein Jahr neue Hardware vorzustellen und im nächsten Jahr das virtuelle Hardwareupdate über Software. Tensorcorefunktionen zum bezahlt, freischaltbaren Upgrade hätte ich auch noch als Idee.
 
Sun_set_1 schrieb:
Wie oft hier im Forum empfohlen wird den Framelimiter anzuschmeissen wenn FG aktiviert ist, da müsst ihr noch viel Aufklärungsarbeit leisten :D

Immer diese pauschalaussage, als wenns nur Schwarz un Weiss gäbe, könnt ich brechen 🐢

FG+ Framelimiter= Latenz steigt 🐍
FG ohne Framelimiter = Tearing 🦂

PICK YOUR POISON

Ich weis, kam nicht ursprünglich von dir aber muss hier mal aufklaren xD

Solange man den framelimiter nicht zu drastisch runterkürzen lässt, war mir WENIG latenz immer lieber als Tearing.
Aber ja, ohne min. 240hz monitor, besser 480hz , brauch man garnicht über mfg 3x und höher reden.

121-239 fps sind das "TAL DES TODES" 👀🙅😅 Von VRR flicker bei schlechten FT auf Oled will ich nicht anfangen xD
 
  • Gefällt mir
Reaktionen: Sun_set_1
FG ist nunmal ein Feature welches bleibt. Und es ist auch gut einsetzbar. Besonders im konsolen bereich mit Gampad. Und je nach spiel ist es auch sehr gut am desktop PC mit Maus einsetzbar. Ich hatte es sehr gern bei Aufbau strategie benutzt. Oder Singelplayer spielen. Man kann sich auch daran gewöhnen, genauso wie man sich an hohe FPS und niedrige latenz gewöhnen kann. Bin auf die verbesserungen der nächsten jahre gespannt, vieleicht schaffen sie ja die minimum fps noch etwas zu senken.
 
TheInvisible schrieb:
Da passt dann aber trotzdem was nicht, hab noch nie einen limiter gebraucht weil er selbst limitiert und Tearing auch nicht. Vielleicht arbeitet da was nicht richtig zusammen oder du musst am TV noch was umstellen damit es PC kompatibel ist
"Weil er selbst limitiert" heißt einfach nur das deine Grafikkarte zu langsam für deinen Monitor ist 😘

Dein Monitor hat ja 240, wenn deine graka NIEMALS mehr als 240 "schafft", ist logisch das du keinen brauchst. Aber gibt Leute die haben schnellere Graka oder Spielen andere Games ^^
 
Bekomme ich jetzt hiermit "the power of a 4090 for 549$"?
 
  • Gefällt mir
Reaktionen: rentex, Andre83hro und Hotzenplotz45
Nennt mich Boomer aber ich halte einfach nix von der Entwicklung. Dank DLSS bemüht man sich so schon immer weniger um ne gute Optimierung auf dem PC und mit MFG wird das nur schlimmer. Am Ende gibt man dann >1000€ für ne Grafikkarte aus die ein Spiel nativ gerade so auf 30-40FPS bringt aufgrund der schlechten Optimierung und vom Entwickler bekommt man dann zu hören "Schaltet doch DLSS und MFG over 9000 ein, dann habt ihr eure dröfmillionen Frames."

Für Low-End und Mittelklasse-Karten mag das ganz nett sein um auch damit gute Frames zu erreichen ohne alles auf Niedrig zu stellen aber bei DLSS hat man ja gesehn wie Entwickler damit umgehen und das in der Realität läuft und bei MFG wird das in Zukunft nicht anders sein.
 
  • Gefällt mir
Reaktionen: Mu Wupp, Brrr und rentex
Mimir schrieb:
Die sollen lieber mal zumindest 3x MFG für RTX4000 freischalten, wenn RTX5000 jetzt schon 6x kann. Das wäre nur fair :daumen:
Die RTX4000er Karten haben nicht die Hardwareeinheiten für MFG da würde das Frame Pacing total durcheinander kommen deswegen Verzichtet Nvidia auch aus Qualitätsgründen auf MFG bei RTX4000.
 
Cool wäre ja der nächste Schritt (sollte das ein Ziel sein), dann auch aus zb. "ruckeligen" 20 oder 30 fps, flüssige 60 oder mehr zu machen, dann könnten manche ihre Hardware noch Jahre länger behalten hehe :D
 
Hotzenplotz45 schrieb:
"Weil er selbst limitiert" heißt einfach nur das deine Grafikkarte zu langsam für deinen Monitor ist 😘

Dein Monitor hat ja 240, wenn deine graka NIEMALS mehr als 240 "schafft", ist logisch das du keinen brauchst. Aber gibt Leute die haben schnellere Graka oder Spielen andere Games ^^
Nein das ist ein Feature von Reflex das immer ein paar fps unterhalb max Refreshrate automatisch gekappt wird wegen Latency, auch bei meinen 240Hz. Und da bei DLSS-FG/MFG immer Reflex aktiv ist braucht man da nix selber limitieren. Wie gesagt, wenn das nicht geht ist irgendwas falsch eingestellt oder irgendwas inkompatibel.
 
Was macht jetzt eigentlich diese MOD genau mit angeblich allen Karten?

enabler.png
 
Alphanerd schrieb:
Bekomme ich jetzt hiermit "the power of a 4090 for 549$"?
na in der zukünftigen timeline wird die app opensource sein die den echten mfg skill der karten (zählt nur frames ohne bildfehler) misst und als balkendiagramm anzeigen lässt, da bleibt bei der 5050 nicht mehr viel von 6xMFG 😑 wenn keiner MFG zuschaltet wird sich 10xMFG verzögern lach early adapoter/betatester nvidias ai füttern ist kostenlos und bringt spass yeaaaaah :D XDD
 
Wolfgang schrieb:
Da wurde anscheinend schon das DLSS 4.5 SDK genutzt, ja. Könnte dann das erste Spiel sein :)

Kann der "DLSSIndikator" deine Zweifel ausräumen? Es ist keine Überschreibung aktiv. ;)
 

Anhänge

  • reg.JPG
    reg.JPG
    26,8 KB · Aufrufe: 23
TheInvisible schrieb:
Nein das ist ein Feature von Reflex das immer ein paar fps unterhalb max Refreshrate automatisch gekappt wird wegen Latency,

What? Wenn ich Reflex aktiviere bekomme ich in Games trotzdem mehr FPS als mein Monitor Herz hat.
Oder hab ich das falsch verstanden? Ich hab dich jetzt so verstanden, dass Reflex automatisch einen Framelimiter nutzt?
 
cypeak schrieb:
aber da sind auch wir als user mitschuld: upscaling wird geradezu als die erlöser-terchnik angesehen und deren sinnvoller einsatz wird kaum hinterfragt.
...
keiner sagte da was von: hey, wir reden hier immerhin von einer 800-900€ grafikkarte - das ist doch nicht wirklich gut was da bei rauskommt, egal wie gut upscaling technisch funktionieren mag..
Naja was ist denn die Alternative?
Leistungstechnisch hat sich außerhalb von Highend in den letzten Jahren auch vergleichsweise wenig getan. Für die GPU-Hersteller sind Spiele(r) auch deutlich aus dem Geschäftsfokus gefallen und wir können derzeit quasi froh sein, dass für uns überhaupt noch Fertigungskapazitäten abfallen, wenn der ganze Kram auch zig-fach teuer für KI verkauft werden könnte.
Bei der Computergrafik sind wir zudem an einem Punkt angelangt wo bereits verhältnismäßig kleine optische Verbesserungen oft deutlich mehr Leistung erfordern und die Erwartungshaltung wie groß und umfangreich ein Spiel sein muss, wirklich enorm geworden ist.

Ich finde es auch albern wie oft hier von Laien das Wort "optimieren" in den Raum geworfen wird.
Als wäre da ein großer roter "Jetzt optimieren"-Button in Unreal den man einfach nur drücken müsste.
Optimieren bedeutet in der Praxis:
Du brauchst Entwickler die fit darin sind Algorithmen auf Laufzeit und Speicherverbrauch zu untersuchen und zu optimieren. Das ist deutlich anspruchsvoller als einfach nur etwas zu programmieren was "irgendwie" das tut was es soll. Selbst wenn du die Experten hast, brauchen die Zeit dafür sich den vorhandenen Code anzuschauen, sich Verbesserungen zu überlegen und diese umzusetzen. Das ist bei derart großen Projekten wie sie aktuelle AAA-Spiele sind, ein Haufen Arbeit und die Leute die das können sind idr. keine Juniors die sich mit einem günstigen Stundenlohn zufrieden geben sondern Profis denen in der Industrie auch außerhalb des Gamingbereichs Spitzengehälter winken.
Irgendwer muss diese teure Optimierungsarbeit am Ende ja auch bezahlen.

Irgendwo muss man also Kompromisse eingehen und die wenigsten dürften bereits sein den x-fachen Preis von dem was aktuell für neue Spiele verlangt (oder über Microtransaktionen generiert) wird zu zahlen, nur damit damit da am Ende, am eigentlich schon fertigen Spiel noch monatelang penibel Bugs gefixt werden und alles super aufwändig optimiert wird.
Da wird man einfach pragmatisch eine Art 80/20 Regel anwenden, denn Perfektionismus ist verdammt teuer.
 
Der Nachbar schrieb:
Wenn neue Hardware zum Softwaretrick wird und NVIDIA auf die Idee kommt für MFG den Nutzer bezahlen zu lassen
Das wird passieren, garantiere ich zu 100%. AMD wird das auch machen, Intel, wenn sie sich im GPU Markt weiter ansiedeln wollen, auch.

Und jetzt? Entweder man legt sich auf den Boden und trommelt, oder man nimmt das so hin.
Klar, Entwickler könnten ihre Spiele weiter optimieren. Oder einfach die Grafik so lassen, wie sie ist. Ob der 500 Meter entfernte Baum seinen Zweig nun perfekt in einem See reflektiert oder nicht ... merkt keiner.

Wie schon erwähnt, ich glaube nicht, dass die Hardwarehersteller das extra so machen. Die sind letzten Endes gezwungen etwas "neues" zu machen, weil einfach mehr Transistoren auf den Chip kleben, geht physikalisch irgendwann nicht mehr.

Wer eine bessere Idee hat und Nvidia erklärt, wie sie mehr Rechenpower in den Chip bekommen, der wird seinen Gehaltsscheck mit einer beliebigen Zahl selbst ausfüllen können.
 
  • Gefällt mir
Reaktionen: Unti, Volvo480 und Quidproquo77
Zurück
Oben