News Multi Frame Generation: DLSS 4.5 MFG 6× und Dynamic MFG erscheinen am 31. März

@No_Toxic_Gamer
Richtig, Intel hat bestätigt, dass sie für ihr XeSS MFG kein Hardware Flip Metering nutzen.

Stellt sich die Frage, wie gut das Frame Pcaing dann im Vergleich zu Nvidias Hardware Lösung ist.

Ich hab immernoch die Vermutung, dass man bei Blackwell das Hardware Flip Metering zu DLSS3 Zeiten entwickelt hat, als man merkte, dass das Frame Pacing noch nicht ganz ideal ist.

Bis DLSS4 MFG dann auf den Markt kam hatte man aber bereits eine stark verbesserte Software Lösung, die aktuell auf RTX40 zum Einsatz kommt und (vermutlich) das Hardware Flip metering mehr oder weniger obsolet macht. Stand jetzt scheint mir das Hardware Flip Metering auf Blackwell daher eher eine Ausrede für die Exklusivität von MFG zu sein und weniger eine Voraussetzung. Ich kann hier natürlich falsch liegen. Überprüfbar ist es nicht.

Mit Frame Generation selbst war das ja das gleiche. Dort hieß es, dass man die Optical Flow Accelerators auf den RTX40 GPUs benötigt, um die Bilder zu erzeugen. Mit DLSS4 FG ist man dann aber auf ein AI Model für Frame Generaiton umgestiegen und nutzt die Hardware Einheiten gar nicht mehr. Das wäre dann auch eine Möglichkeit gewesen, Frame Gen auf RTX30 zu bringen. Hat man aber ebenfalls nicht getan.
Gut, es könnte jetzt sein, dass DLSS Frame Gen ein FP8 Model nutzt, womit das auf RTX30 deutlich langsamer wäre. Wer weiß. Aber ich gehe stark davon aus, dass der fehlende FG support für RTX30 und der fehlende MFG Support für RTX40 mittlerweile reine produktpolitik ist. Das ist schade, aber solange die Lösungen dermaßen gut funktionieren (selbst 2x FG auf Nvidia finde ich allen anderen Lösungen am Markt bis auf DLSS MFG überlegen) kann sich das Nvidia wohl erlauben.
 
  • Gefällt mir
Reaktionen: Belter
Das wird extrem spannend, jetzt fehlen nur noch die richtig guten Monitore.
 
Rickmer schrieb:
Ich weiß nicht, wie es dir geht, aber mir reicht auch 240fps... und da braucht man nicht unterhalb 60 rendered fps anfangen, was mit mfg 4x erreichen lässt.
Mir auch, aber was mir und Dir reicht ist ja letztendlich irrelavant. Anscheinend gibt es einen Markt und diese Technik soll ihn bedienen. Das Phänomen ist doch nicht neu, Stichwort Car-Tuning etc. Ich brauch auch keine LED-Leiste für den Unterboden, aber offensichtlich gibt es Produkte dafür, und ich akzeptiere, dass es diesen Markt gibt. Tausend andere Beispiele möglich.

Rickmer schrieb:
Wer Shooter spielt die von 480 Hz und mehr profitieren, der hat für MFG keine Verwendung weil jeder Frame gerendert sein muss wenn die Input-Latenz für Schüsse und neue Objekte (Gegner) minimal sein soll.
Das stimmt bezüglich Gegner etc definitiv, wie es aber mit dem, was ich hier jetzt mal "optischer Fluss" nenne, aussieht kann ich noch nicht abschliessend beurteilen, halte es aber für gut möglich, dass das auch diesbezüglich von Vorteil ist.

Wenn man sich bspw. in einem Shooter in einem engen Raum schnell um 180 Grad dreht (oder jedenfalls mit Objekten in unmittelbarer Nähe), dann haben die eine sehr hohe "Geschwindigkeit" auf dem Bildschirm (blöd ausgedrückt, hoffentlich wird klar was ich meine). Bei so einer Drehung könnte bspw ein Baumstamm vor einem in 0,3 Sekunden einmal quer über den Bildschirm huschen. Bei 60 fps sind das 20 Bilder, bei 4K Resolution bedeutet das also "Sprünge" von ~200 Pixeln. MFG könnte dann bspw 9 Zwischenbilder liefern mit nur noch 20 Pixeln Sprungweite bei 600 Hz.

Im Grunde ist das Ganze natürlich auch mit dem Thema Bewegungsunschärfe verwandt. Ich habe es noch nie real gesehen, sind alles nur theoretische Gedanken dazu.
 
No_Toxic_Gamer schrieb:
Für Nvidias MFG. Bei Intels XeSS 3 MFG funktioniert das meines Wissen auch ohne, für die A und B-Arc Serie.
Nvidia wird sich schon was dabei gedacht haben, nicht umsonst ist DLSS-(M)FG beim Framepacing & Latenz ganz vorne
Ergänzung ()

Rickmer schrieb:
Ich weiß nicht, wie es dir geht, aber mir reicht auch 240fps... und da braucht man nicht unterhalb 60 rendered fps anfangen, was mit mfg 4x erreichen lässt.
Doch, mein Notebook hat nur 165Hz und da kann man mit 4xMFG richtig Strom sparen und man merkt es nicht im Spielgeschehen
 
  • Gefällt mir
Reaktionen: Grestorn
Kann es sein, Dynamic FG grds. schon live ist? Ich kann es als Besitzer einer 4090er nur für 2xFG oder kein FG sehen und nicht von kein FG bis 6xFG. Aber bei ARC Raiders habe ich die Option FG auf auto zu stellen. Wenn ich da meine max. eingestellten 225 FPS erreiche, wird FG deaktiviert, wenn ich drunter bin wird 2xFG aktiviert. Es erscheint im AR eigenen Performance Overlay statt nur der FPS die Anzeige FPS(2x), so dass man das aktivierte und deaktivierte FG gut sieht. Ist mit Dynamic FG nun was anderes gemeint oder wirklich nur die Dynamik auch hoch bis zu 6x?
 
Der 1. April kommt näher, ich lese schon die Headline "MFG 59x kommt - 1 FPS reicht für flüssige Darstellung von Cyberpunk auf einer Lidl-Smartwatch"
 
@No_Toxic_Gamer Es geht nicht so sehr um die Latenzen sondern ums Pacing. Und das ist ohne Hochgeschwindigkeitskamera kaum objektiv messbar.
 
  • Gefällt mir
Reaktionen: Mimir
Yosup schrieb:
Im Grunde ist das Ganze natürlich auch mit dem Thema Bewegungsunschärfe verwandt. Ich habe es noch nie real gesehen, sind alles nur theoretische Gedanken dazu.
Eigentlich ist das doch nur eine Einschränkung von statischen Displays. Auf CRTs sind 120 Hz perfekt.

Ansich müsste der Monitor die Zwischenbilder berechnen, so wie TVs das auch können. 120 Hz rein, 480 Hz raus. Ein Frame Vorausblick mit 8 ms Lag sollte vertretbar sein.

Merkwürdiger Techniktrend heutzutage, Displays mit Bildraten zu befeuern, die man vom Auge her eigentlich zeitlich kaum auflösen kann, nur weil die Bildschirme Probleme mit der Bewegungsdarstellung haben.
 
Grestorn schrieb:
@No_Toxic_Gamer Es geht nicht so sehr um die Latenzen sondern ums Pacing. Und das ist ohne Hochgeschwindigkeitskamera kaum objektiv messbar.

Tja, leider hat sich bisher meines wissens niemand die Mühe gemacht, das genauer zu untersuchen.

Es gab nen Test von Hardware Unboxed, der mit Hilfe einer Kameraaufnahme verdeutlicht hat, wie schlecht das Frame Pacing bei AMDs FSR ist, aber mich würde vor allem auch der Unterschied zwischen dem seit DLSS4 stark verbessertem CPU Seitigen Frame Pacing auf RTX40 und dem Hardware Flip Metering auf RTX50 interessieren.

Aber heutzutage gibts leider kaum noch Tester, die sich wirklich mit solchen Details befassen (können).
Ist halt enorm aufwändig und das interesse scheinbar gering. Obwohl es so essenziell für die Erfahrung ist.
Alleine das Frame Pacing macht naben der Latenz den größten Unterschied aus, ob sich die zusätzlichen Frames "echt" anfühlen oder nicht. Gerade beim teilweise schlechten Frame Pacing von FSR macht das den Hauptunterschied. Hatte auf meiner GeForce schon oft den Fall, wo FSR FG einfach aussah als würde das Spiel mit weniger FPS laufen, obwohl es gleich viele waren.
Da hat man mit FG z.B. 160 FPS, aber mit FSR FG sieht es dann nur ca wie 120 FPS aus.
Es ist eine verbesserung zu FG off, aber der benefit zeigt sich nicht ganz so krass.

Für Nvidia ist das ja auch enorm wichtig. Wenn man mit MFG 400+ FPS bewirbt und Faktoren von bis zu 6x nutzt, dann sieht man die überwigende Zeit nur noch die generierten Frames. Wenn hier das Frame Pacing nicht so gut wie nur irgendwie möglich ist, dann ist die ganze Technologie für die Katz und niemand hätte was davon wenn 400 FPS mit Frame Gen dann effektv nur so flüssig aussehen wie 200 FPS. Die investierte Rechenzeit um die Frames zu generieren wäre dann vergeudet.


RMS_der_Zweite schrieb:
Eigentlich ist das doch nur eine Einschränkung von statischen Displays. Auf CRTs sind 120 Hz perfekt.

120 Hz sind auf CRTs noch lange nicht perfekt.

Es gibt zwei unterschiedliche Wahrnehungsarten von Framerates.

1. du verfolgst mit deinen Augen ein Objekt, das sich über den Bildschirm bewegt.
z.B. so: https://testufo.com/ Das Ufo am linken bildschirmrand ins Auge fassen und dann während es über den Bildschirm wandert im Fokus behalten -> es wird unscharf.

Wenn du das tust, dann verschwimmt das Bild auf sample and hold displays, also displays die direkt von einen auf den anderen Farbwert umschalten und ihn dann halten (also praktisch jedes moderne display, incl. OLED)
Je länger die Anzeigezeit pro Frame, also je geringer die Framerate, desto unschärfer wirkt die bewegung des Objekts.
CRTs haben eine Austastphase in der der Bildschirm nach jedem intervall kurz schwarz ist. Die effektive Anzeigezeit eines jeden Bildes ist dadurch nur sehr kurz. Durch diese geringe Persistenz entsteht sehr viel weniger Unschärfe im Auge (ja, im auge, nicht im Display).

So weit so gut.

Es gibt aber noch die zweite Wahrnehmungsart:

2. du schaust z.B. in einem Spiel mittig auf den Bildschirm und nimmst periphär die bewegungen abseits der mitte wahr. Die Kamera bewegt sich, objekte bewegen sich, aber du verfolgst sie nicht mit den Augen. Sprich immer wenn sich was bewegt, was du nicht direkt mit den Augen verfolgst, kommt der Stroboskop effekt zum tragen.

z.B. hier: https://testufo.com/mousearrow
Einfach auf die Bildschirmmitte schauen und beobachten, wie die Abstände zwischen den Mauszeigern kleiner werden. Tatsächlich wird nur EIN mauszeiger dargestellt. Dass man ihn mehrfach wahrnimmt ist eine optische illusion deines Displays, welche aufgrund des stroboskop effekts entsteht. In Spielen äußert sich das durch überlagerte mehrfachkonturen.

Das passiert, weil die Framerate bzw. Bildwiederholrate deines Displays viel zu gering ist. Selbst bei meinen 240 Hz ist das noch sehr gut sichtbar. In sämtlichen Spielen bei 240 Hz natürlich auch. Es bräuchte wohl weit über 1000 Hz um den Stroboskopeffekt auf ein minimum zu reduzieren. Und hier ist der CRT NICHT im Vorteil. Der CRT hat hier genau das gleiche Problem wie jeder LCD und OLED. Das Stroboskopeffekt Problem lässt sich daher wirklich nur mit sehr hohen Frameraten bzw. Bildwiederholraten lösen.

Praktisch braucht es auch keine CRTs um beides zu lösen.

OLEDs mit sehr hohen Bildwiederholraten von 1000+ Hz würden beide Probleme lösen. Die hohe Frequenz sorgt sowohl für sehr geringe Persitenz pro Frame als auch für einen weitestgehend minimierten Stroboskopeffekt. Hohe Frequenzen sind also die einzig richtige Lösung. CRTs lösen nur eines der beiden Probleme auf Kosten von flimmern.

Das Video hier ist übrigens SEHR zu empfehlen, wenn man das thema genauer verstehen und nachvollziehen will:
Spätestens damit sollte auch klar werden, warum Frame Generation die einzigige Lösung sein kann, um diese klassischen Anzeigeprobleme, mit denen wir uns seit Jahrzehnten herumschalgen ein für alle mal zu beseitigen.
Wir werden es niemals schaffen, komplexen, fordernden gamecode mit 1000 oder 10.000 FPS auf einer CPU auszuführen. Und wir werden es auch nicht schaffen, aufwändige fotorealistische Grafik in hoher Auflösung in weniger als 1 Millisekunde zu rendern. Was aber möglich ist, ist Frames zu generieren. Aktuell sind zwar 1000 FPS mit Frame Gen zumindest in 4K nicht möglich, weil die generierten Frames auch ne gewisse Renderzeit brauchen, aber da die kosten um so ein Frame zu generieren fix sind und nicht von der Grafik und dem Rechenaufwand für die Grafik abhängig sind, wird das mit künftigen GPUs, die mehr Leistung für das Frame Gen AI Model mitbringen, ein Problem sein, das sich ziemlich schnell auflösen wird.
RTX6000 wird daher ziemlich sicher mit einer 10x oder noch höheren Frame Gen kommen. Da führt auf lange Sicht kein Weg vorbei.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bccc1, Grestorn und Lendi
@Mimir
Interessant. Ich erinnere mich halt daran, dass damals ein 100Hz 21" für mich absolut flimmerfrei war, auch im Augenwinkel. (edit: auch waren Bewegungen schon bei 60 Hz erstaunlich schlierenfrei).
Allerdings konnte ich bei DLP-Projektoren mit 300 Hz immer Regenbogeneffekte sehen. Und ein TFT, der sequentiell seinen Farbraum erweitert hat, ging vor Jahren direkt zurück, weil ich ständig grüne oder gelbe Flächen aufblitzen sah bei Augenbewegungen.

Die Anzeige von CRTs ist ja auch komplexer, es gibt kein komplettes Schwarzbild dazwischen sondern der Phosphor leuchtet nach. Das Bild pulsiert.

Zum Video; da ist halt zu unterscheiden zwischen dem, was man noch irgendwie als Artefakt wahrnehmen kann und was relevant ist. Kann ich bei meinem neuen Gigabyte OLED mit 280 Hz noch Bewegungsunschärfe sehen? Ja. Ist es gut genug? Auch ja. ;)
Ich vermute im Übrigen, dass die physischen Bildzellen diese Bildraten gar nicht wirklich erreichen.
 
Zuletzt bearbeitet:
Zurück
Oben