News Nvidia DLSS 4.5: MFG 6×, dynamisches MFG und besseres Super Resolution

TheInvisible schrieb:
Du meinst also zb in Outer Worlds 2 wo es mit AMD kein AL2 gibt ist es auf Radeon unspielbar? okay...

Anhang anzeigen 1694003
Keine Ahnung wie du darauf kommst, dass es deshalb nicht spielbar sein sollte, oder von mir denkst, dass ich das glauben sollte. Mir geht es um die Eingabeverzögerung durch zusätzlich generierte Bilder. Lieber niedrigere Framerate, als Lag durch künstlich generierte Bilder.
 
Siebenschläfer schrieb:
Ich brauche kein AA, wenn ich nicht mit der Lupe an den Bildschirm gehe.
So kann man noch ein Quality Preset runter gehen, wenn du schon mit der Lupe eh keinen Unterschied gesehen hast. Sehr gut!
 
Geil, noch mehr Fake-Frames und noch weniger Grund Spiele zu optimieren. Na zumindest gibts das umsonst....noch.
 
Vexz schrieb:
Hallo Peter. Warum nicht? Hast du das bereits mal mit 3 zusätzlich generierten Bildern ausprobiert? Ich bin 36 und merke vieles nicht mehr, weil ich langsam geworden bin. Aber 3 zusätzlich generierte Bilder machen Spiele selbst für jemanden wie mich unspielbar. 5 zusätzlich generierte Bilder will ich mir erst gar nicht vorstellen.

Oh; ich habe nie behauptet, daß man die Bonuslatenz nicht bemerkt.

Aber solange du nicht von 1fps Basis aus auf 4fps hochfakest, halte ich die 'Sekunde später'... 'wie sich auf dem Bildschirm was bewegt' dann doch für ein wenig arg übertrieben.

Ja; ein Spiel von unspielbaren 20fps hochzuskalieren, ist zum Scheitern verurteilt - wenn du bereits um die 80fps hast, kann das System prima zwischengenerieren. Wovon man freilich (außer der toll hohen Zahl im fps-Counter) freilich bei den meisten Monitoren eher wenig hat.
 
  • Gefällt mir
Reaktionen: Snapuman
Ich habe Treiber und Beta Updates aktiviert. Sehe nun Present M, aber sowohl im Treiber als auch CP77 oder Black Myth nur x4 MFG.
Und die Dynamisch MFG kann ich bisher auch nicht einstellen. Sollte das mit der Beta nicht auch schon möglich sein?

LG Ben

PS: Habe eine RTX5080
 
Blackfirehawk schrieb:
Analogie...

du siehst n unterschied zwischen DLSS4.0 und DLSS4.5 bei preset K
obs wirklich mehrfach durch den upscaler gejagt ist weis ich nicht.. das ist einfach nur fürs verständniss das da defenitiv noch eine weitere nachbearbeitung erfolgt die Performance kostet.
sieht man auch gut daran das M und L bedeutend überschärft sind
Ich nehme an, dass L und M einfach deutlich komplexere Modelle mit wesentlich mehr Parametern sind, anders sind die Verbesserungen bei Ghosting und temporaler Stabilität kaum zu erklären. Ein rekursiver Algorithmus würde das nur verschlechtern bei mehrfacher Anwendung.
Wieso Beide etwas überschärfen ist eine interessante Frage. Vielleicht einfach eine stilistische Entscheidung, da Viele ein Bild so subjektiv als detaillierter war nehmen.
 
  • Gefällt mir
Reaktionen: N0Thing
Der Preis für eine Geforce ist schon gut angelegt. Allein, dass DLSS FG praktisch immer einfach funktioniert, was man von FSR FG nicht behaupten kann. Wers nicht braucht, lässt es halt.

Blackfirehawk schrieb:
obs wirklich mehrfach durch den upscaler gejagt ist weis ich nicht.. das ist einfach nur fürs verständniss das da defenitiv noch eine weitere nachbearbeitung erfolgt die Performance kostet.
sieht man auch gut daran das M und L bedeutend überschärft sind
Das ist technisch halt nicht korrekt, das Modell von M und L ist einfach deutlich größer.

Laut Meinung der meisten Reviewer ist Transformer auch nicht überschärft, sondern es stellt die Schärfe wieder her, die mit TAA über Jahre nicht mehr zu sehen war.
 
  • Gefällt mir
Reaktionen: Snapuman
Vexz schrieb:
Keine Ahnung wie du darauf kommst, dass es deshalb nicht spielbar sein sollte, oder von mir denkst, dass ich das glauben sollte. Mir geht es um die Eingabeverzögerung durch zusätzlich generierte Bilder. Lieber niedrigere Framerate, als Lag durch künstlich generierte Bilder.
Hättest die Graphen angesehen würdest sehen und verstehen dass es mit MFG weniger Latenz gibt als mit nativ also in dem Fall wie es auf Radeon laufen würde. Bzw alle Games ohne Reflex haben auch eine höhere Latenz als MFG+reflex. Wie hat man früher nur gezockt...
 
  • Gefällt mir
Reaktionen: Snapuman und Loopman
Araska schrieb:
Aber solange du nicht von 1fps Basis aus auf 4fps hochfakest, halte ich die 'Sekunde später'... 'wie sich auf dem Bildschirm was bewegt' dann doch für ein wenig arg übertrieben.
Ja, du hast also meine (wie ich dachte) offensichtliche Übertreibung nicht verstanden. Natürlich ist es keine Sekunde, aber für mich (und ich vermute mal den meisten Leuten geht es genauso) sind selbst 3 zusätzlich generierte Bilder schon eine untragbare Latenz. Nochmal zwei mehr machen es offensichtlich nur noch schlimmer.
 
  • Gefällt mir
Reaktionen: Ben1804
Araska schrieb:
Nö. Ist in den eklig teuren Grakas eingepreist.
Rtx2000-4000 User haben den Aufpreis schon längst wieder drinnen, Software Rules in der heutigen zeit
 
Araska schrieb:
Nö. Ist in den eklig teuren Grakas eingepreist.
Ja, jetzt noch. Wenn Nvidia irgendwann mal in Zukunft für die neuesten Softwarefeatures Geld verlangt (natürlich in Form von Abos), sollte aber keiner überrascht sein denn irgendwie will man die Consumer auch noch weitermelken, vorallem die die nicht mehr viel Geld in neue Grafikkarten reinstecken. Da ist noch viel Potenzial da den Konsumenten das Geld aus der Tasche zu ziehen.
 
Lurtz schrieb:
Laut Meinung der meisten Reviewer ist Transformer auch nicht überschärft, sondern es stellt die Schärfe wieder her, die mit TAA über Jahre nicht mehr zu sehen war.
Schärfe auf was für Geräten? UE5 rendert mit TAA Bilder für (U)HD-TVs mit 2 bis 3 m Betrachtungsabstand.

Azeron schrieb:
Wenn Nvidia irgendwann mal in Zukunft für die neuesten Softwarefeatures Geld verlangt (natürlich in Form von Abos), sollte aber keiner überrascht sein
Ein Abo nur damit man mit der Lupe Pixel jagen gehen kann?
 
Azeron schrieb:
Geil, noch mehr Fake-Frames und noch weniger Grund Spiele zu optimieren. Na zumindest gibts das umsonst....noch.
Nicht mehr lange, und Spiele Engines müssen nur noch prompts halluzinieren und der upscaler generiert dann schon ein flüssiges Spiel..
 
  • Gefällt mir
Reaktionen: Ben1804
LikeHike schrieb:
Die Grafikkarte hat je nach Auflösung und Featureset im Schnitt zwischen 8% und 14% Mehrleistung.
Unter Windows und was die Rasterleistung angeht gebe ich dir Recht unter Linux dreht sich dagegen das Bild .
LikeHike schrieb:
Dazu kommt ein deutlich besseres Softwarefeatureset.
Das ist Relativ zu sehen, wer DLSS und FG als Feature sieht, ja. Und auch bei Raytracing geb ich dir Recht. Physx spielt quasi keine Rolle. Was für mich aber in den letzten Jahren ausschlaggebender geworden ist, ist das Thema Linux Support und sdas zähle ich in der Tat zum Featureset dazu.
LikeHike schrieb:
Da wo AMD ein gleichwertiges oder besseres Produkt hat, ziehen sie genauso die Preise an wie es der Konkurrenz gerne vorgeworfen wird.
Niemand hat was Gegenteiliges behauptet, es geht aber auch darum das man die beiden Produkte auch mit passenden Parts vergleicht. Es macht keinen Sinn eine RX9070XT mit einer 5090 zu vergleichen aber schon mit einer 5070Ti und da hat sie das bessere P/L. 8-10% sind meist auch nur 5-10 FPS unterschied je nach Spiel und wie gesagt DLSS und FSR sind in meinen Augen kein Feature sondern eine Reaktion auf das Thema der stagnierenden Leistungssteigerung durch kleinere Fertigungsschritte.
 
  • Gefällt mir
Reaktionen: Return2Burn und Ben1804
Euphoria schrieb:
Doch kann ich, selbst mit DLSS habe ich erst letzte Woche Artefakte in Hogwarts Legacy gesehen. Die waren aber weniger störend.

In Cyberpunk sehe ich massive Artefakte mit FG, gerade in Verbindung mit Raytracing. Da ist es aber massiv störend. Gerade wenn Grund FPS schon zu gering sind, dann sind die Artefakte umso schlimmer.
Und genau das ist der Punkt. Wie alt sind diese Spiele? Hat sich FG in der Zeit weiterentwickelt?
Hier wird ne neue DLSS Version angepriesen und du willst jetzt schon wissen, welche Fehler sie hat. Merkste selbst, oder?

Und das Video meinst du hoffentlich auch nicht ernst. Da werden Standbilder mit der Lupe verglichen. Wer spielt so? Ich kann dir sagen, dass ich Artefakte mit FG im Spielfluss seltenst wahrnehme. CP 2077 hatte welche, ja, aber das ist auch uralt. Aktuell spiele ich BF6 und dort siehst du bspw. keine.

@Siebenschläfer scheinbar kaufen sich einige hier die Spiele nicht zum spielen, sondern um akribisch irgendwelche Fehler zu finden. Und ist auch nur 1 Pixel falsch, ist die Technik gleich Müll. :D
 
Zuletzt bearbeitet:
Siebenschläfer schrieb:
Ein Abo nur damit man mit der Lupe Pixel jagen gehen kann?
Klar. Und es würde auch Abnehmer finden. Es wird irgendwann kommen, das ist so sicher wie das Amen in der Kirche. Die Frage ist nur wann und wie Nvidia das aufzieht weil in die vollen können die da natürlich nicht gehen. Den Konsumenten muss man erstmal dran gewöhnen und solche Abos erstmal nur für eigentlich unnötige Features anbieten und wenn es sich langsam etabliert, mit der Zeit immer mehr hinter die Paywall packen.
 
Azeron schrieb:
Ja, jetzt noch. Wenn Nvidia irgendwann mal in Zukunft für die neuesten Softwarefeatures Geld verlangt (natürlich in Form von Abos), sollte aber keiner überrascht sein denn irgendwie will man die Consumer auch noch weitermelken, vorallem die die nicht mehr viel Geld in neue Grafikkarten reinstecken. Da ist noch viel Potenzial da den Konsumenten das Geld aus der Tasche zu ziehen.
Oder man macht's wie AMD jetzt und bringt Features (fsr4,Redstone) nicht Mal für die vorige Generation oder stellt den Treiber Support schlechter für ältere Generationen und heizt so die neuverkäufe an :D
 
  • Gefällt mir
Reaktionen: Snapuman, LikeHike und Azeron
TheInvisible schrieb:
mit MFG weniger Latenz gibt als mit nativ

Wobei verstehen kann ich das ehrlich gesagt auch nicht wie das technisch überhaupt möglich ist und wie echt diese Zahlen sind.

Bei 50 FPS (ohne FG mit Reflex) kommt alle 20ms ein neuer Frame. Also muss doch die Latenz um mindestens 20ms steigen da FG ja auf den nächsten Frame „warten“ muss um zu interpolieren, da FG deutlich aufwändiger ist als klassische Motion Interpolation Z.B von TVs (oder auch Tools wie lossless scaling) muss also noch etwas auf die Berechnung drauf gehen.

Aber selbst bei den mindestens 20ms, wie kann dann bei 2xFG die Latenz nur um 9ms steigen?
 
Zurück
Oben