Bericht DLSS 4.5 MFG ausprobiert: Erste Eindrücke zu Dynamic MFG und MFG 6×

@Alexander2
Als ob Software FG auch nur in die Nähe der Qualität von Hardware MFG rankommen wurde. Nvidias Lösung ist nicht umsonst die beste Frame Generation, was Artefakte, Frame Pacing und smoothness angeht.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und TheInvisible
Alexander2 schrieb:
Bist denen ja voll auf den Leim gegangen :-) Herzlichen glückwunsch.

Bist du irgendwie neidisch oder so?
Ich habe AMD und nvidia Karten hier. Und weder FSR FrameGen noch dieses LSFG kommt im Ansatz an nvidias MFG ran (leider!)
 
  • Gefällt mir
Reaktionen: Quidproquo77, TheInvisible, Samuelz und eine weitere Person
Nein, ich habe nichts gegen Framegen. Aber etwas dagegen das Nvidia es als Leitungsfeature verkauft. Die haben doch damit geworben, das ne Langsame Grafikkarte dadurch an die Leistung einer viel schnelleren Grafikkarte käme.

Das ist glatt gelogen.
Und ja ich nutze auch Framegen wo es passt. und es ist ein gutes feature. Diese Künstliche Marktseparierung kotzt mich trotzdem an. Dich etwa nicht?

Bei jedewedem Framegen nie vergessen, das die tatsächliche Latenz dadurch nicht besser sondern schlechter wird. Also die Leistung für ein gutes SPielgefühl muss immer gegeben sein, da hilft auch kein Framegen mehr.
 
  • Gefällt mir
Reaktionen: lWllMl und Andre83hro
Alexander2 schrieb:
Bei jedewedem Framegen nie vergessen, das die tatsächliche Latenz dadurch nicht besser sondern schlechter wird. Also die Leistung für ein gutes SPielgefühl muss immer gegeben sein, da hilft auch kein Framegen mehr.
Dafür hat man ja bei Nvidia IMMER Reflex dabei mit FG/MFG. Nvidia ist halt darauf bedacht das die Features auch gut funktionieren, und wenn die die Meinung sind das MFG eben Flip Metering Hardware braucht ist es so. Deswegen kannst es auch gar nicht mit sowas wie Lossless Scaling vergleichen.

Boah CB macht endlich einen Aufklärartikel darüber, immer die gleichen falschen Aussagen nerven schon langsam, auch wie man einen Gsync Monitor richtig konfiguriert...
 
  • Gefällt mir
Reaktionen: Samuelz, usmave und ChatGehPeeTee
Alexander2 schrieb:
Die haben doch damit geworben, das ne Langsame Grafikkarte dadurch an die Leistung einer viel schnelleren Grafikkarte käme.
Wir haben "the power of a 4090 for 549$!!" bekommen. Was willst denn noch? ;)
Screenshot_2026-02-06-09-15-43-471_com.android.chrome-edit.jpg
 
  • Gefällt mir
Reaktionen: Andre83hro
contractor schrieb:
Nvidia liefert mit MFG ein Feature das Losless Scaling bereits seit mehr als einem Jahr bietet....
Lossless Scaling kann nicht im Ansatz mit nVidias FG mithalten. Habe es genutz und die zahlreichen Artefakte geduldet, weil ich keine Wahl hatte.(3090)
 
  • Gefällt mir
Reaktionen: Samuelz
mr_clark schrieb:
. Das einzige was wir immer wieder - mal mehr und mal weniger - sehen werden, wird die bessere und kompetentere Integration der Upscalingverfahren usw. (was mMn nicht im Prinzip schlecht ist.)
das ist das andere "problem".
amd, nvidia, intel..alle haben sie eine upscaling technik und ich behaupte mal selbst wenn hypothetisch irgendein anderes unternehmen in den gpu markt drängen würde, müsste es upscaling bieten.

die frage ist wieso man bisher nicht geschafft hat für das upscaling eine einheitliche schnittstelle in den üblichen rendering-api's zu integrieren, so dass nicht jedes game das upscaling spezifisch für jeden gpu hersteller einzeln anpassen muss - auch das kostet zeit und verkompliziert das ganze.

eine vereinheitliche api im directx oder vulkan würde eine upscaling gegen eine einheitliche schnittstelle arbeiten lassen hinter welcher dann das herstellerspezifische verfahren (dlss, fsr, xess, etc.) stecken würde.

so müsste man nicht jedes mal darauf hoffen dass das game xyz das eine oder andere verfahren vielleicht nicht unterstützt...
 
  • Gefällt mir
Reaktionen: mr_clark
Sun_set_1 schrieb:
Wo wäre das Problem einfach dann die Ausgabe auf Echt-Echt-Interpoliert-Echt.... anzupassen? Also Faktor 1.3.

Die FT würde von 0,011 auf 0,008 sinken,
Wenn alle 11 ms ein Renderbild hast, wäre das Zwischenbild nach 5,5 ms. -> der Monitor müsste 180 Hz können obwohl nur 120 fps (gesamt, die laufen wie 90 fps), frametime Varianz, oled flicker


Verteilt man die gleichmäßig alle 8,33 ms, hätte man eine ungleichmäßige Last. Jedes vierte frame langweilt sich die GPU dann 8,33 ms lange, weil für die ersten drei hat man offensichtlich ja die Leistung um alle 8,33 ms ein Bild fertig zu haben. Wo wäre er Vorteil, nach 25 ms für 8,33 ms mit dem rendern auszusetzen, weniger Last? Die Leistungsfähigkeit erhöht sich dadurch schließlich nicht, (okay im thermischen Limit schon). Warum dann nur jedes vierte ersetzen?

Oder die GPU rendert gleichmäßig vor sich hin, jedes vierte ein Zwischenbild, gleichmäßig ausgegeben. Dann pulsiert doch ständig die Aktualität der Bildinhalte. (Wobei ich die Grafik von @Bccc1 nicht kapier)
90 Hz Render-zeitpunkte11,1122,2233,33fg
38,88
44,4455,5666,67fg
72,22
77,7888,89100,00
120 Hz Ausgabe-zeitpunkt8,3316,6725,0033,3341,6750,0058,3366,6775,0083,3391,66100,00
um x,xx Millisekunden älterer Bildinhalt5,562,780,002,795,562,780,002,785,552,770,00
Ob man das merkt, keine Ahnung, aber grundsätzlich schon Unruhe wollen? Könnte ähnlich zu V-Sync stottern sein.


Mit der aktuellen Methode machen imho nur ganzzahlige Faktoren Sinn. Oder steh ich aufm Schlauch? Gut möglich.

Im Endeffekt macht dieses dynamische MFG, ähnliches wie die LFC bei VRR. Statt die frames beim absacken der fps zum einhalten der syncrange doppelt und dreifach ect anzuzeigen, wird nun der FG Faktor entsprechend erhöht, um (möglichst weit oben) in der range zu bleiben.
 
ElliotAlderson schrieb:
Sorry aber das ist Schwachsinn. Früher liefen Spiele in 30 Fps auf der schnellsten HW. Wenn heute nicht 60 FPS in 4K auf einer Kartoffel läuft, reden User wie du von unoptimiert.
also schwachsinn ist schonmal kein guter einstieg in eine diskussion, aber wers braucht..
man definiere "früher" - wenn wir von zeiten der spielhalleautomaten und 2d pixelgrafik reden, welche auf custom engines liefen (falls man das überhaupt als engines definieren kann), dann stimmt die aussage mit den 30fps.
wenn wir über games so ab mitte ende der 90er jahre sprechen, dann war auch da schon notwendig zu optimieren. schon die wahl der rendering-api und eines engine-derivats entschied darüber wie performant ein game werden konnte.

und je ambitionierter ein game-projekt bezüglich der visuellen qualität war, desto mehr muste man optimieren - noch bevor die ersten geforce gpu's auftauchten, haben spieler von games wie quake2, half life (hier insbesondere counterstrike) oder unreal (hat nichts mit der heutigen engine mehr zu tun, ausser das epic beteiligt war) auf deutlich mehr als 30fps wert gelegt und dazu war eben keine super-highend-hardware nötig.

games wie half life liefen bei release auf voodoo2 karten mit 12mb vram und glide api bei mehr als 30fps und das obwohl halflife nicht gerade niedrige anforderungen für die damalige zeit hatte. bereits ende 99 anfangs 2000 knacke durchschnittshardware die 100fps marke. und das ging schlicht weil die halflife engine auf der ziemlich optimierten quake engine lief..
 
  • Gefällt mir
Reaktionen: zeedy
Fika schrieb:
Mit der aktuellen Methode machen imho nur ganzzahlige Faktoren Sinn. Oder steh ich aufm Schlauch? Gut möglich.
Man muss sich einfach nur von dem Gedanken trennen, dass die realen Frames noch eine besondere Rolle spielen. Die dynamische FG kann einfach zu jedem Zeitpunkt, der für die Einhaltung der gewünschten Zielbildrate notwendig ist, entsprechende Frames interpolieren. Die durchschnittliche Latenz wird dadurch etwas steigen, weil nicht jeder zurückgehaltene Frame direkt ausgegeben werden kann. Die zusätzliche Latenz fällt dabei aber umso kleiner aus je höher der aktuelle MFG Faktor ist.
 
cypeak schrieb:
also schwachsinn ist schonmal kein guter einstieg in eine diskussion, aber wers braucht..
Na was will man da auch diskutieren. Die Grund-These alleine ist ja schon nicht haltbar und auch widersinnig. Dazu reicht ein Blick in alte Spielereleases von vor 5-20 Jahren.

Es war nie einfacher und besser wie jetzt auf genügend FPS in seinen Einstellungen zu kommen. Mit DLSS und FG+Reflex hat man's noch einfacher. Hardware hält so lange wie nie.
cypeak schrieb:
auf deutlich mehr als 30fps wert gelegt und dazu war eben keine super-highend-hardware nötig.
Damals war man froh, wenn man 20-30 FPS hatte...hast du mal GTA 5 am PC gespielt? Stuttering, CPU Limit. Starcraft, Crysis, Far Cry, Gothic, Arcania, Mount and Blade, Morrowind. Hast du überhaupt gezockt? Stelle ich in Zweifel.

Alles Nostalgie. Man redet sich irgendwas schön und hört den Clickbait Tubern zu die sich etwas cherrypicken um nörgeln zu können. Weil ohne undifferenzierten Ragebait heute nix mehr läuft.
cypeak schrieb:
games wie half life liefen bei release auf voodoo2 karten mit 12mb vram und glide api bei mehr als 30fps
Ja und hunderte andere Games halt nicht. Heute läuft jedes Spiel in 4K auf einer Mittelklasse GPU von vor 4 Jahren flüssig. Selbst eine 3090 von vor 6 Jahren mit DLSS reicht noch und das ist so gut, dass man problemlos Ultra Performance nutzen kann und auf Nativ Niveau rauskommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: UVLWheezle
Quidproquo77 schrieb:
Es war nie einfacher und besser wie jetzt auf genügend FPS in seinen Einstellungen zu kommen. Mit DLSS und FG+Reflex hat man's noch einfacher.
ich würde mal sagen das zeigt das mein argument so garnicht verstanden wurde.
Quidproquo77 schrieb:
Damals war man froh, wenn man 20-30 FPS hatte...hast du mal GTA 5 am PC gespielt? Stuttering, CPU Limit. Starcraft, Crysis, Far Cry, Gothic, Arcania, Mount and Blade, Morrowind. Hast du überhaupt gezockt?
ich habe das meiste davon gespielt und dann noch weitaus mehr und älteres - und habe auch an hardware einiges kommen und gehen gesehen.

der ausspruch "can it run crysis" kommt nicht von ungefähr - und 20fps waren schon von 20 jahren "kacke".
abgesehen davon, die meisten dieser games fallen in eine zeit in der technische neuerungen sich überstürzten.
beispiel morrowind: das game hate ein ziemliches cpu limit (wurde dazu damals zurecht heftig kritisiert) und vor allem die darstellung von wasser via pixel shader hat vieles an verfühgarer hardware überfordert. eine geforce 2 (hatte ich) konnte pixel shading garnicht und entsprechend war die performance mies - eine radeon der 8000er serie oder selbst die einsteiger geforce 4 (ausser der mx!) konnten ohne weiteres 45-60fps hinbekommen und das mit relativ hohen details. und das obwohl morrowind nichtmal ein vernünftiges lod hatte um die sichtweite zu regulieren.
ungefähr zwei jahre später kam far cry - eines der ersten dx9 games welche die neuen features nutzten; dx9 karten performten, dx8 karten weniger...wunder oh wunder.

aber das ist an sich ein anderes thema; fehlenden hardwaresupport kann man nicht herbeioptimieren; man kann ersatztechniken für die darstellung nutzen, aber das bezahlt man entweder mit schlechterer optik oder performance.
das games mies performen liegt nicht mehr daran dass die gpu kein feature xy kann, sondern dass kaum noch entwickler an eigenen engines schrauben und diese dann kennen und überhaupt zu optimieren in der lage sind.
ich kann es auch umformulieren: auch früher gab es einen steigenden hardware-hunger, aber dieser ging meist einher mit entsprechendem uplift bei den visuals - das ist seit einigen jahren eben nicht mehr die regel. ältere games und engines überflügeln teilweise wesentlich neuere implementierungen...
wer heute auf unity oder unreal engine setzt, der hat schon ein abgestecktes feld an features und wenn die engineentwickler grundlegende problematiken nicht angehen, werden die game entwickler welche auf diese engines setzen auch keine abhilfe leisten..

Quidproquo77 schrieb:
Ja und hunderte andere Games halt nicht. Heute läuft jedes Spiel in 4K auf einer Mittelklasse GPU von vor 4 Jahren flüssig.
games wie half life und unreal waren schon die messlate - wenn diese auf dem system liefen, liefen die meisten anderen games auch.
dazu kommt die krasse technische entwicklung in diesen jahren. gerade zw. 1998 und ~2003 hat sich die gaming welt mehr verändert als in den letzten 10-15 jahren.
die sache ist aber eben die: die games heute laufen selten in uhd - sie werden in uhd ausgegeben, aber gerendert werden sie in wqhd oder gar niedrigerer auflösung - das ist so ziemlich eines der punkte die ich zuvor mehrfach ausgeführt habe und welche wesentlich bei den upscalern sind.
 
  • Gefällt mir
Reaktionen: zeedy
Sly123 schrieb:
Lossless Scaling kann nicht im Ansatz mit nVidias FG mithalten. Habe es genutz und die zahlreichen Artefakte geduldet, weil ich keine Wahl hatte.(3090)
Das liegt nur an der Integration in Spiele und damit Anwendung aufnur die Richtigen Inhalte sowie zugriff auf Motion Vector. Alles keine Nvidia Alleinstellungsmerkmale nur eine Frage der Integration.

Nvidia MFG ist nichts anderes als all die anderen MFG. Aber sie verkaufen es/werben damit als wäre es ein Leistungsfeature.

Vorallem war Nvidia bei weitem auch nicht die ersten mit dem Feature Glotzen konnten das schon lange bis 600FPS hab ich schon gesehen.
Und dabei auch nie vergessen, Jedes FG oder MFG (was das gleiche ist, es werden nur mehr Bilder berechnet, aber Nvidia verkauft es als einzigartig und nur für bestimmte Karten :D )
erhöht die Latenz und man braucht für ein gutes Spielgefühl IMMER die passende Grafikkartenleistung. Dagegen hilft auch das Nvidia Marketing und FG nicht.
 
  • Gefällt mir
Reaktionen: lWllMl
Quidproquo77 schrieb:
Na was will man da auch diskutieren. Die Grund-These alleine ist ja schon nicht haltbar und auch widersinnig. Dazu reicht ein Blick in alte Spielereleases von vor 5-20 Jahren.

Es war nie einfacher und besser wie jetzt auf genügend FPS in seinen Einstellungen zu kommen. Mit DLSS und FG+Reflex hat man's noch einfacher. Hardware hält so lange wie nie.
Man kann auch einfach selbst mal optimieren..
Die meisten Games laufen mit low settings selbst auf einer 10 Jahre alten GTX1070/1080.. bzw RTX2060 mit 60fps.


Man muss sich nur von den Gedanken verabschieden immer alle Regler nach rechts auf max knallen zu müssen.

Bei vielen Einstellungen sieht man kaum Unterschied zwischen Medium und High/Ultra..
Manche Einstellungen sind auch verbuggt und kosten unnötig viel Leistung.

Und einzelne Raytracing Effekte sind nach wie vor in den meisten Games ein sehr kostspieliger Witz.. kaum zu unterscheiden von Raster Effekten.. und sehen dann oftmals nur "anders" aber nicht besser aus.
Klar gibt es hier Ausnahmen wo RT/PT optisch richtig rein knallt.. die lassen sich aber an einer Hand abzählen.. und sind oft nur zenen bezogen.

Generell sollte man bei JEDEM Spiel erst einmal die settings durchtesten und entscheiden was einem welche Einstellung wert ist.
Selbst mit ner highend Karte..
Und dann erst reden wir über DLSS und MFG

Ich kann n CoD in 4K mit 60-70fps zocken.. oder das meiste auf Low stellen und mit 200+ FPS zocken.
Der optische Unterschied mag zwar vorhanden sein.. ändert am Gameplay aber nichts
 
Schau dir Borderlands 4 an wie es vor der Optimierung auf low war und wie es jetzt auf low aussieht und läuft.

Das ist ein Unterschied wie von Tag zu nacht.
 
@Alexander2

Du trägst aber echt Dick auf.
Du kannst Nvidia nicht leiden, okay. Aber so nen Schrott zu erzählen ist dann doch schon peinlich.

Welche "Glotze" hat den 600FPS gemacht? Selbst die damaligen Plasmas haben bestenfalls nur Teilbilder einfach mehrfach angezeigt, mit extremen Latenzen, fürs Gaming absolut untauglich.

UND Nvidia waren die ersten mit KI generierter FG, "all die anderen" machens nur mal wieder nach. Muss dir nicht passen, ist aber nunmal so.
Und eben diese KI braucht entsprechende Kerne, die nunmal nicht alle CPUs haben. AMD unterstützt beim FSR auch nicht alle Karten.... Und Jetzt?

Marketing machen sie alle, und gezwungenermaßen MUSS jeder sein Zeugs bestmöglich verkaufen, und nebenbei wird dir auch nicht passen das eben NVIDIA stets die Nase nicht nur quantitativ, sondern auch qualitativ vorne hat.
Aber, NVIDIA macht was gegen die Situation und bietet inovative Alternativen, das man physikalisch kaum noch voran kommt und der Aufwand immer höher wird bei gleichzeitig stetig immer weniger Optimierungen der Spieleentwickler, ist mitnichten Nvidias Schuld. Im Gegenteil, Nvidia hat schon immer neue Features und
"Andere" Ahmen nur nach um zumindest noch am Ball zu bleiben.
 
  • Gefällt mir
Reaktionen: Samuelz
Alexander2 schrieb:
Vorallem war Nvidia bei weitem auch nicht die ersten mit dem Feature Glotzen konnten das schon lange bis 600FPS hab ich schon gesehen.
Und dabei auch nie vergessen, Jedes FG oder MFG (was das gleiche ist, es werden nur mehr Bilder berechnet, aber Nvidia verkauft es als einzigartig und nur für bestimmte Karten :D )
Du checkst anscheinend noch immer nicht das es nicht nur eine dumme Bildduplizierung bei DLSS-MFG ist.

Es werden hier Standards in BQ, Framepacing und Latenz gesetzt, die gibt es so bei keinem anderen MFG Verfahren. Hast die letzte Zeit unterm Stein geschlafen und die ganzen Berichte von zb PCGH und CB verschlafen?

Und zwecks Latenz:

Gibts auch nur bei Nvidia weil sie seit Anfang an Reflex IMMER an FG/MFG gekoppelt haben
 
  • Gefällt mir
Reaktionen: Andre83hro
Zurück
Oben