News Multi Frame Generation: DLSS 4.5 MFG 6× und Dynamic MFG erscheinen am 31. März

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
9.655
  • Gefällt mir
Reaktionen: NMA, Averomoe, SweetOhm und eine weitere Person
RTX 4000 Besitzer gucken in die Röhre.
Weiß nicht, wie ich das finden soll. Selbst aus Nvidia Perspektive wäre es aktuell vielleicht sinnvoll, dass auch für Ada zur Verfügung zu stellen. Vor dem Hintergrund von Verzögerungen der nächsten Generationen usw.
Ich denke nicht, dass sie dadurch viele RTX 5000 Verkäufe einbüßen würden.
Und die Community wäre wieder etwas milder gestimmt.

Das neue FG AI Modell ist aber für alle, wie ich das verstehe.
 
  • Gefällt mir
Reaktionen: DerSnake und w33werner
Man kann noch ergänzen, dass das neue verbesserte Frame Generation Model auch für RTX40xx GPUs verfügbar sein wird.

Nur eben weiterhin mit FG Faktor 2x.
 
  • Gefällt mir
Reaktionen: MalWiederIch, slow_snail, Buchstabe_A und 4 andere
Geil. RTX 5080 OC Besitzer hier, mit 4K 31,5“ mit 240 HZ QD-OLED Nutzer. Freue mich drauf.
 
Dynamic FG ist für mich eine gute Idee, aber bei 4x ist für mich so langsam die Generierung erschöpft... irgenwann braucht es wieder ein 'echtes' Frame.

@Wolfgang Es wäre vielleicht interessant zu testen, wie MFG mit verschiedenen Inputs klar kommt, also z.B. direkt nach dem Output eines 'echten' gerenderten Frame z.B. einen Schuss einer Waffe auslösen oder andere Aktionen. Ich wäre neugierig, wie viele Aktionen direkt umgesetzt werden und welche Aktionen erst mit dem nächsten gerenderten Frame starten...

Dafür kann man ja sicherlich ein künstliches Scenario mit möglichst niedrigen nativen FPS wählen, dass dann z.B. ein Schuss schon längst losgehen sollte bevor der nächste gerenderte Frame kommt, also irgendwann in den 5 generierten Frames.
 
  • Gefällt mir
Reaktionen: NMA und Slim.Shady
Rickmer schrieb:
bei 4x ist für mich so langsam die Generierung erschöpft... irgenwann braucht es wieder ein 'echtes' Frame.
Natürlich braucht es "irgendwann" wieder ein echtes Frame, aber warum sollte das mit der Anzahl der Zwischenbildern zusammenhängen? Ich würde da eher einen Realzeit-Bezug sehen und in Hz oder meinetwegen auch Millisekunden rechnen. Entscheidend ist doch, wie alt das letzte "echte" Bild ist. Bei einer hohen Kadenz "echter" Bilder basiert auch das letzte generierte Bild auf relativ aktuellen Daten.

Man sollte MFG nicht als Technik verstehen, die aus niedrigen Bildraten mittelmässige Bildraten erzeugt, sondern als eine, die aus hohen Bildraten absurd hohe generiert. Also nicht 20 fps -> 80 fps, sondern sowas wie ~120 fps zu 480 fps.
 
  • Gefällt mir
Reaktionen: MalWiederIch, slow_snail, Buchstabe_A und 7 andere
JaniC schrieb:
Das neue FG AI Modell ist aber für alle, wie ich das verstehe.
Das ist richtig, das gibt es auch auf RTX 4000.
Rickmer schrieb:
Dynamic FG ist für mich eine gute Idee, aber bei 4x ist für mich so langsam die Generierung erschöpft... irgenwann braucht es wieder ein 'echtes' Frame.

@Wolfgang Es wäre vielleicht interessant zu testen, wie MFG mit verschiedenen Inputs klar kommt, also z.B. direkt nach dem Output eines 'echten' gerenderten Frame z.B. einen Schuss einer Waffe auslösen oder andere Aktionen. Ich wäre neugierig, wie viele Aktionen direkt umgesetzt werden und welche Aktionen erst mit dem nächsten gerenderten Frame starten...

Dafür kann man ja sicherlich ein künstliches Scenario mit möglichst niedrigen nativen FPS wählen, dass dann z.B. ein Schuss schon längst losgehen sollte bevor der nächste gerenderte Frame kommt, also irgendwann in den 5 generierten Frames.
Nunja, das geht ja nicht.
Die künstlichen Frames werden ja immer zwischen zwei gerenderten erstellt, nachdem das zweite gerendert worden ist. Sprich, Frame a wird gerendert und verzögert, Frame b wird gerendert und kurzfristig verzögert, die künstlichen Bilder werden erstellt und dann alles in der richtigen Reihenfolge (inklusive Frame Pacing ausgegeben).

Entsprechend hat eine zwischenzeitlich neuer Steuerungsinput auch erstmal keine Auswirkungen auf das Bild. Das funktioniert ja erst, wenn der zweite Frame gerendert wird, die künstlichen Frames erstellt und dann alle Frames ausgegeben werden.

Daher kannst du auch die Anzahl der künstlichen Frames recht problemlos erhöhen. Wenn dein Algorithmus schnell genug und dieser die "Zwischenframes" in guter Qualität erstellen kann (das ist eben nicht ganz einfach), hat das bei ausreichender Render-Framerate zumindest theoretisch keinen großen Einfluss auf die Bildqualität. Darum wird die Anzahl der künstlichen Frames in Zukunft auch immer weiter nach oben gehen, schätze ich.

Was damit natürlich nicht klappt, zumindest stand jetzt und sowas wie Reflex 2, ist es, das ganze bei einer geringen Render-Framerate zu machen. Du brauchst da schon ein gutes Niveau von sagen wir mal 50 bis 60 FPS. Hast du das, wirst du da schätze ich eine ganze Menge künstlicher Frames dazwischenschieben können.
 
  • Gefällt mir
Reaktionen: NMA, Zagrthos, Volvo480 und 4 andere
Hi@all!

Solange es das MFG in den Stufen 2x 4x und 6x gibt und keine feineren 0.1er Abstufungen
bis zum Frameratetarget ist, es halt etwas blöd,
dann springen die Frames schon etwas sehr.

Mal sehen wie sich das auswirkt, wenn man zockt!

Würde mir die Stufen von "Lossless Scaling" wünschen!

Denke aber ein Modder/Programmierer wird das ganze schon wieder richtigen
was Nvidia eben nicht Schaft.

Wie so oft!

Gruß
Mehlstaub
 
Yosup schrieb:
Man sollte MFG nicht als Technik verstehen, die aus niedrigen Bildraten mittelmässige Bildraten erzeugt, sondern als eine, die aus hohen Bildraten absurd hohe generiert. Also nicht 20 fps -> 80 fps, sondern sowas wie ~120 fps zu 480 fps.
Das weiß ich schon, aber mit 6x bist du dann eher 120 -> 720 (oder eher 600 mit Overhead, aber wie auch immer).

Ich weiß nicht, wie es dir geht, aber mir reicht auch 240fps... und da braucht man nicht unterhalb 60 rendered fps anfangen, was mit mfg 4x erreichen lässt.

Wer Shooter spielt die von 480 Hz und mehr profitieren, der hat für MFG keine Verwendung weil jeder Frame gerendert sein muss wenn die Input-Latenz für Schüsse und neue Objekte (Gegner) minimal sein soll.

Wolfgang schrieb:
Daher kannst du auch die Anzahl der künstlichen Frames recht problemlos erhöhen. Wenn dein Algorithmus schnell genug und dieser die "Zwischenframes" in guter Qualität erstellen kann (das ist eben nicht ganz einfach), hat das bei ausreichender Render-Framerate zumindest theoretisch keinen großen Einfluss auf die Bildqualität.
Danke für die Erkläuterung.
Dann bleibe ich aber auch bei meiner Meinung, dass oberhalb von 3x oder 4x MFG der Sinn verloren geht. Das ist nur noch weiterer Overhead, dessen Rechenleistung besser investiert wäre wenn daraus ein neues Frame gerendert wird.

Wer wirklich von so vielen fps profitiert, schaltet MFG aus weil es die Latenz erhöht.

MehlstaubtheCat schrieb:
Würde mir die Stufen von "Lossless Scaling" wünschen!
Vielleicht macht das nvidia irgenwann wie bei den Konsolen, dass zusätzlich die render Resolution variiert wird, um immer die Ziel-Framerate zu erreichen.
Aktuell wählt man ja fest zwischen verschiedenen DLSS Qualitätssettings aus, aber das muss nicht zwingend sein.
 
MehlstaubtheCat schrieb:
Mal sehen wie sich das auswirkt, wenn man zockt!

Würde mir die Stufen von "Lossless Scaling" wünschen!

Denke aber ein Modder/Programmierer wird das ganze schon wieder richtigen
was Nvidia eben nicht Schaft.

Die Methode die Lossless Scaling nutzt geht mit starken Bildqualitätseinbußen einher, da gar keine realen Frames mehr angezeigt werden und die generierten unterirdisch schlecht sind im Vergleich zu richtigen FG Lösungen. Für die dynamische Ausgabe werden einfach sehr viele Frames generiert und dann die angezeigt die gerade passend sind. Das geht auch mit sehr hohen Performancekosten und hohen Latenzen einher.

Mir ist es ein absolutes Rätsel wie man das nutzen kann. Selbst 2x FG mit Lossless Scaling wirkt völlig unbrauchbar, wenn man auch nur 1 Sekunde DLSS FG ausprobiert hat. Der Unterschied bei den Latenzen, Performance, Bildqualität und Frame Pacing ist astronomisch.
 
  • Gefällt mir
Reaktionen: usopia und Grestorn
Schade wieder nichts zu Reflex 2 und Frame Warp. Seit über einem Jahr herrscht seit der Ankündigung Funkstille. Auch kein neues KI Modell für Ray Reconstruction
 
JaniC schrieb:
RTX 4000 Besitzer gucken in die Röhre.
Weiß nicht, wie ich das finden soll. Selbst aus Nvidia Perspektive wäre es aktuell vielleicht sinnvoll, dass auch für Ada zur Verfügung zu stellen. Vor dem Hintergrund von Verzögerungen der nächsten Generationen usw.
Ich denke nicht, dass sie dadurch viele RTX 5000 Verkäufe einbüßen würden.
Und die Community wäre wieder etwas milder gestimmt.

Das neue FG AI Modell ist aber für alle, wie ich das verstehe.
Hält man den kleinen Finger hin wollen manche gleich die ganze Hand ; ) Muss ist gar nichts, nicht mal ein DLSS4 auf RTX4000 Karten wäre nötig gewesen siehe Radeons, alles nur goodwill
 
@TheInvisible Habe kein Wort von "muss" gesagt. Waren nur Überlegungen.

Technisch gebe es jedenfalls keine Hürden afaik.

Aber stimmt schon, ohne DLSS 4 (und 4.5) auf Ada hätte ich intensiver über eine 5000er nachgedacht.
 
MehlstaubtheCat schrieb:
Solange es das MFG in den Stufen 2x 4x und 6x gibt und keine feineren 0.1er Abstufungen
bis zum Frameratetarget ist, es halt etwas blöd,
Gibt 2,3,4,5,6... wie du das dann mit 0.1 implementieren willst musst mal sagen, nur 1/10 Bild rendern und zum Monitor schicken?
Ergänzung ()

JaniC schrieb:
Technisch gebe es jedenfalls keine Hürden afaik.
MFG benötigt FlipMetering Hardware die nur RTX5000 hat
 
  • Gefällt mir
Reaktionen: Fyrex, NMA, Grestorn und 4 andere
TheInvisible schrieb:
MFG benötigt FlipMetering Hardware die nur RTX5000 hat

Alles klar, das war mir nicht bewusst. Dann ist es ja sowieso keine Möglichkeit.
Also bekommen wir quasi alles, was technisch möglich ist, für Ada.
 
  • Gefällt mir
Reaktionen: NMA
MFG 4x oder 6x macht ja irgendwo nach 240 FPS kaum noch Sinn.
Und damit es gut aussieht, braucht man aber ne mind. FPS oder verstehe ich das falsch?
 
MehlstaubtheCat schrieb:
Solange es das MFG in den Stufen 2x 4x und 6x gibt und keine feineren 0.1er Abstufungen
bis zum Frameratetarget ist, es halt etwas blöd,
dann springen die Frames schon etwas sehr.
Und wie soll das technisch möglich sein? Nur 10% vom Bildschirm anzeigen und der Rest bleibt schwarz? 10% neues Bild und 90% vom alten Bild? Auf die Erklärung bin ich gespannt 😅
 
  • Gefällt mir
Reaktionen: Fyrex
MehlstaubtheCat schrieb:
Hi@all!

Solange es das MFG in den Stufen 2x 4x und 6x gibt und keine feineren 0.1er Abstufungen
bis zum Frameratetarget ist, es halt etwas blöd,
dann springen die Frames schon etwas sehr.

Mal sehen wie sich das auswirkt, wenn man zockt!

Würde mir die Stufen von "Lossless Scaling" wünschen!

Denke aber ein Modder/Programmierer wird das ganze schon wieder richtigen
was Nvidia eben nicht Schaft.

Wie so oft!

Gruß
Mehlstaub
Alles andere außer ganzzahlige Stufen ist sinnlos. Oder was willst du mit einem 10 prozentigen Frame?^^
Das wird auch kein Modder richten. Es geht einfach nicht sinnvoll.
Rickmer schrieb:
Danke für die Erkläuterung.
Dann bleibe ich aber auch bei meiner Meinung, dass oberhalb von 3x oder 4x MFG der Sinn verloren geht. Das ist nur noch weiterer Overhead, dessen Rechenleistung besser investiert wäre wenn daraus ein neues Frame gerendert wird.

Wer wirklich von so vielen fps profitiert, schaltet MFG aus weil es die Latenz erhöht.


Vielleicht macht das nvidia irgenwann wie bei den Konsolen, dass zusätzlich die render Resolution variiert wird, um immer die Ziel-Framerate zu erreichen.
Aktuell wählt man ja fest zwischen verschiedenen DLSS Qualitätssettings aus, aber das muss nicht zwingend sein.
Mit einem entsprechenden Monitor ist der Sinn rein bezüglich auf das Bewegtbild keine Grenzen gesetzt. Da ergibt auch MFG 5067983775x noch einen Sinn. Und das Bewegtbild profitiert von mehr FPS eben deutlich.

Klar, nen besseren Input-Lag bekommt man dadurch nicht. Und wer den unbedingt so gut wie möglich haben möchte, muss auf FG aktuell eben verzichten. Dafür ist Frame Generation aber auch nicht gedacht.
 
  • Gefällt mir
Reaktionen: NMA, Jan und Grestorn
Ab MFG 60x brauchen wir keine Spieleentwickler mehr, das erfindet die KI dann alles aus einem Bilderbuch :daumen:
 
  • Gefällt mir
Reaktionen: Andre83hro
Zurück
Oben