Bericht DLSS 4.5 MFG ausprobiert: Erste Eindrücke zu Dynamic MFG und MFG 6×

@cypeak: schlimm war: die dlss 4.5 ist langsamer als preset f + shadermods (besseres bild ohne dlss4.5 xD)... nehme aktuell kein dlss4.5 zu lahm, dlss4.5 das weniger fps bringt, treiber die die grafikkarte langsamer machen kann sich ja nur um ein bug handeln...
 
ev4x schrieb:
Die RTX4000er Karten haben nicht die Hardwareeinheiten für MFG da würde das Frame Pacing total durcheinander kommen deswegen Verzichtet Nvidia auch aus Qualitätsgründen auf MFG bei RTX4000.

Na ja, so ganz kann man das halt nicht gelten lassen. Du hast zwar einerseits damit recht, das ist das was Nvidia gesagt hat. Sie haben Hardware Flip Metering bei RTX5000 eingebaut, um besseres Frame pacing mit MFG zu ermöglichen. Deswegen erlauben sie MFG nur auf RTX5000, während RTX4000 bei 2x FG bleibt.

Andererseits:

1. Nvidia hat das Frame Pacing auf RTX4000 bereits mit dem DLSS4.0 Frame Gen Algorithmus für 2xFG massiv verbessert. Das Frame Pacing ist praktisch perfekt. Sehr viel besser als noch mit DLSS 3 FG (und selbst das war schon um welten besser als das teilweise völlig kaputte Pacing von FSR FG)

2. Das Frame Pacing mit Lossless Scaling funktioniert ganz ohne Hardware Flip Metering mit vielfachem MFG. Das Problem bei Lossless Scaling ist nur, dass die Performancekosten zu hoch sind, die latenzen viel zu hoch und die Bildqualität nicht sonderlich gut.

3. Intel wird auf ARC auch 4x MFG anbieten. Meines Wissens gibt es dort auch kein Hardware Flip Metering. Korrigiert mich gerne wenn falsch.


Ich wäre mir also nicht so sicher, ob 3x MFG auf RTX4000 tatsächlich so schwierig wäre, nur weil das Hardware Flip Metering fehlt. Wenn man bereits bei 2x FG so eine starke Verbesserung gegenüber DLSS3 FG erreichen konnte, dann fällt es mir schwer zu glauben, dass 3x MFG dann plätzlich unmöglich oder nicht gut umzusetzen sei. Aber gut, ich kann es nicht beweisen und Nvidia wird hier keine technisch tiefgreifende Argumentation bereitstellen. Die sagen einfach "geht nicht". Muss man so akzeptieren. Wenn Intel es aber schafft, 4x MFG ohne Hardware Flip Metering mit guten Frame pacing umzusetzen, dann ist die nvidia Argumentation nicht wirklich haltbar und die Kritik gerechtfertigt. Aber das wird sich erst noch zeigen müssen.

Am Ende ist es halt schade, dass Nvidia praktisch zwei mal die nahezu gleichen GPUs veröffentlicht hat und dann Software Features wie FG exklusiv für die neuesten Karten macht. Ich meine mit RTX3000 ist es ja das selbe. Nachdem man mit dem DLSS4 FG Algorithmus auf eine rein KI basierte Frame Generation setzt und den Optical Flow Accelerator in RTX4000 gar nicht mehr braucht, sollte es kein Problem sein, auch für RTX3000 Frame Generation zu erlauben. Aber sie machens halt nicht.

Na ja, ich werde mir garnatiert nicht die praktisch gleiche GPU nochmal kaufen, nur um MFG nutzen zu können.
Daher weiß ich nicht was sie sich davon erhoffen. Letztendlich wäre das für Nvidia ne einfache Möglichkeit die Kundenzufriedenheit zu steigern, ohne potenziell künftige GPU Verkäufe zu schmälern. Denn RTX4000 und RTX5000 User sitzen ja was die Rohleistung der GPUs angeht praktisch auf nahezu gleichem Level und MFG ersetzt so oder so keine reale Performance. Es ist ein reines Bildqualitäts und Komfort Feature. Keine "free performance". Also was soll der Geiz?

Nvidia macht zwar vieles Richtig, aber an der Stelle ist Kritik angemessen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ev4x
Mintz schrieb:
Kann der "DLSSIndikator" deine Zweifel ausräumen? Es ist keine Überschreibung aktiv. ;)
Und sie nutzen Preset L? Und das bei Quality?
Mutige Auswahl, würde ich sagen :D

Aber ja, es ist halt "nur" Super Resolution. Das ist interessant als erste DLSS-4.5-SDK-Integration, aber eben kein Frame Gen.
 
Wolfgang schrieb:
Warum nicht? Die Variante mit FG würde auf dem Bildschirm deutlich flüssiger aussehen. Wenn es kein Competetive Shooter wäre, wo ich eh auf FG verzichten würde, wäre das für mich der Modus der Wahl Wäre mir lieber als 80 FPS mit besserer Latenz. 60 Render-FPS mit DLSS FG haben für mich in eigentlich jedem Spiel sehr gut funktioniert.

Hmm da mir bewusst ist, dass du dich schon aus beruflichen Gründen doch deutlich mehr damit auseinandersetzt als ich, würde ich dem ganzen tatsächlich nochmal ne Chance geben. Ich hatte das vor kurzem bei Hitman getestet aber da hatte mir das Ergebnis gar nicht gefallen. Werde das aber nochmal testen!

Zu deiner Frage: Weil ich mir die Frage gestellt hab ob 80-85 FPS mit VRR und Reflex wirklich "langsamer" oder "weniger flüssig" wirken als 120 FG. Also ein bisschen weniger flüssig definitiv - aber ich denke zumindest in gleichem Maße auch weniger "responsive" anfühlen als 85 FPS mit Reflex und aktivem VRR.

Also im Prinzip bricht es sich doch runter auf ~+35 FPS Bildflüssigkeit versus -25FPS Latenz. Ich empfinde 85FPS mit VRR als so flüssig, das ich dann lieber die leicht bessere Latenz mitnehme als nochmal nochmal flüssiger.
 
  • Gefällt mir
Reaktionen: Hotzenplotz45
Mimir schrieb:
Problem bei Lossless Scaling ist nur, dass die Performancekosten zu hoch sind, die latenzen viel zu hoch und die Bildqualität nicht sonderlich gut.
da warte ich schon sehnsüchtig auf neue benchmarks xD , bildqualität der echten frames war exakt gleich, außer man hat LS falsch konfiguriert, ab wann die künstlichen frames schlechter sind ... tests, tests, tests...
 
TheInvisible schrieb:
Nein das ist ein Feature von Reflex das immer ein paar fps unterhalb max Refreshrate automatisch gekappt wird wegen Latency, auch bei meinen 240Hz.
Ohne Framegen kenn ich das reflex 1fps unter max monitor rr kürzt.

Aber mit Framegen macht das ja keinen Sinn. ob ich nun durch reflex oder durch normalen Framelimiter eine harte grenze ziehe, sollte keinen unterschied machen.

Dann dürfte ich ja mit framegen x4 an , 60fps baseframe auf einem 60hz monitor niemals mehr als 60fps sehen.

Das macht wenig sinn.

Aber eine "offzielle" Quelle die sagt das reflex mit fg bei der RR cuttet hab ich nicht gefunden.

Da ich Reflex IMMER an habe und mit framegen aufjeden schon uber 165 hz von meinem monitor hatte find ich das schon seltsam.
 
Sun_set_1 schrieb:
Also im Prinzip bricht es sich doch runter auf ~+35 FPS Bildflüssigkeit versus -25FPS Latenz. Ich empfinde 85FPS mit VRR als so flüssig, das ich dann lieber die leicht bessere Latenz mitnehme als nochmal nochmal flüssiger.

Wenn du mal ne Zeitlang mit 150+ FPS auf nem OLED spielst kommen dir 85 FPS tatsächlich ziemlich unscharf vor (wegen sample and hold unschärfe).

85 FPS sind sicher nicht schlecht, aber es geht schon deutlich sichtbar besser. Latenzen sind bei den Frameraten so oder so egal und mit oder ohne FG gut genug für Singleplayer spiele. Das ist der Ideale Bereich, um Frame Gen zu nutzen.

Aber selbst bei Multiplayer Spielen wo man keine besonders hohen Frameraten erreicht kann man argumentieren, dass man mit Frame Gen in bewegung ein deutlich schärferes Bild bekommt und somit gegener deutlich leichter Spotten kann während sich die Kamera bewegt.

Wenn also visibility wichtiger ist, als die letzten paar Millisekunden latenz, dann kann es auch in Multipalyer Spielen ein Vorteil sein.
 
Mimir schrieb:
4x MFG ohne Hardware Flip Metering mit guten Frame pacing umzusetzen
Wer hat das schon getestet? Hätte ich noch nirgends was dazu gehört
Ergänzung ()

Hotzenplotz45 schrieb:
Aber mit Framegen macht das ja keinen Sinn. ob ich nun durch reflex oder durch normalen Framelimiter eine harte grenze ziehe, sollte keinen unterschied machen.
Klar macht das Sinn weil man gerade dort gute Latenz braucht und trotzdem die max fps seines Monitors ausnutzen kann. Und alles andere als Reflex als FrameLimiter kann wieder das Framepacing zerstören. Mich wundert ehrlich gesagt eh nicht das immer wieder Leute schreiben "FG/MFG ist Mist" und die das einfach mit einer völlig vermurksten Config getestet haben...
Hotzenplotz45 schrieb:
Dann dürfte ich ja mit framegen x4 an , 60fps baseframe auf einem 60hz monitor niemals mehr als 60fps sehen.
Eh nicht, was ist schon der Sinn mit FG/MFG über die max Refreshrate des Monitors zu gehen? Wenn ich 60base fps bei 60Hz Monitor haben bringt FG eh nichts.
Hotzenplotz45 schrieb:
Aber eine "offzielle" Quelle die sagt das reflex mit fg bei der RR cuttet hab ich nicht gefunden.
Doch gab sogar einen Nvidia Artikel wie DLSS3 FG released wurde, ka aber wo der ist
Hotzenplotz45 schrieb:
Da ich Reflex IMMER an habe und mit framegen aufjeden schon uber 165 hz von meinem monitor hatte find ich das schon seltsam.
Dann läuft bei dir was falsch. Wie gesagt, wenn du einen VRR Monitor hast im Treiber Gsync aktivieren, Vsync im Treiber auf an und im Spiel immer auf aus. Brauchst nie mehr einen Frame Limiter.
 
Zuletzt bearbeitet:
Ich werde diese Funktion erst nutzen wenn die Grenzen der Hardware völlig erreicht sind. Das ist aber auch nur meine Meinung und an sich kann das schon ganz nett sein. Ich hoffe das sich diese Technologien auch bei Amd entwickeln, leider ist bei Nvidia open source ausgeschlossen.
 
Sun_set_1 schrieb:
What? Wenn ich Reflex aktiviere bekomme ich in Games trotzdem mehr FPS als mein Monitor Herz hat.
Oder hab ich das falsch verstanden? Ich hab dich jetzt so verstanden, dass Reflex automatisch einen Framelimiter nutzt?
Dann hast sowieso dein VRR schon falsch konfiguriert und bekommst immer Tearing. Wie schon gesagt, im Treiber Gsync an, Vsync an und im Spiel Vsync auf aus.
Ergänzung ()

rentedttexas921 schrieb:
Nvidia open source ausgeschlossen.
Stimmt deswegen hat AMD FSR4 und Redstone ja closed gemacht...
 
Mimir schrieb:
Wenn du mal ne Zeitlang mit 150+ FPS auf nem OLED spielst kommen dir 85 FPS tatsächlich ziemlich unscharf vor (wegen sample and hold unschärfe).
Egal in welchem Szenario, bisher hab ich max mit 2x FG gearbeitet, wenn das für "150fps+" reicht, ok. (Getestet alles mfg 4x/ LS FG 20x etc)

Obwohl ich sagen muss das ich zwar sehe das "150fps+" besser is als 120fps, ist mir meistens trotzdem nicht den stromverbrauch wert. 120fps ist der sweetspot, 35 stabil minimum xD. Am liebsten nativ. Aber ich spiel auch nicht kompetitiv 😅

Die nachteile bei FG 3x sind einfach zu groß als das die "mehr Fps" das wert wären.
Ergänzung ()

TheInvisible schrieb:
Klar macht das Sinn weil man gerade dort gute Latenz braucht und trotzdem die max fps seines Monitors ausnutzen kann. Und alles andere als Reflex als FrameLimiter kann wieder das Framepacing zerstören. Mich wundert ehrlich gesagt eh nicht das immer wieder Leute schreiben "FG/MFG ist Mist" und die das einfach mit einer völlig vermurksten Config getestet haben...

Ich sag nicht das fg mist ist, ich sag nur das fg 3x und höher zu viele grafikfehler/latenz produziert. Und abgesehen davon muss man mindestens 60fps baseframe haben. Und selbst wenn man die bugs nicht bemerkt machts ohne min 240hz monitor garkeinen sinn. oder meinetwegen min 180hz.

fg 2x find ich größtenteils nützlich wenn auch natürlich schlechter als nativ.


warum jetzt der reflex framelimiter besser sein soll als ein echter framelimiter im kontext von FG, haste noch nicht erklärt 😜
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
@Smily
Da nvidia erklärt hat eine AI Company zu sein, muss ich als Geforce Kunde nicht mehr auf den Boden gezogen fallen um etwas zu erwarten.

nvidia hätte wie mit Ampere bei Samsung weiter günstiger fertigen, ausreichend Samsung VRAM günstig im Bundle zukaufen und HPC Lösungen bei TSMC fertigen lassen. Aber die Entscheidung hat nvidia schon zur ersten Miningzeit getroffen, welcher Kunde wichtiger ist und viele Geforce gingen in die Mining Rigs. Aufregen tue ich mich da sicher nicht, lasse meine RTX3060Ti sich für das Geld ihre Grafik anzeigen und schaue wann die RTX5060TI in die Preisregionen kommt. Fehlt ja nicht mehr viel und die 16GB Version hat es erreicht.

Der HDD Markt hat sich mit Überflutungen, Fusionen und dem Chichi Coin auch nie mehr wirklich erholt.

nvidia würde mich ja nur mit ollen Aktien entlohnen, wenn ich denen meine Geheimnisse sagen würde. Durch Linsentechnik gekrümmte Schindeltransistoren auf graviationsgefalteten Silizium. Ach Mist, jetzt habe ich alles verraten.

(Würde mich nicht wundern, wenn man in Zukunft gezüchtete Gehirnverbindungen in nährstoffreicher Kühllösung als Rechenwerk verwendet.)

Aber ja, wenn eine Technik für den Kunden unwirtschaftlich zu teuer wird, muss eine andere Technik die Überteuerung auffangen und es monetarisiert werden. Die gesamte Software Entwicklung kostet ja auch Geld durch bezahlte Mitarbeiter und eingesetzte Tools. Aber so lange nvidia den schnellen AI Zug fährt, würde ich als Spieler beim Kauf von Spiele GPUs mein Geld mehrfach als Gedenkpause umdrehen.
 
Zuletzt bearbeitet:
Xes schrieb:
Naja was ist denn die Alternative?
ich bleibe dabei: optimieren - oder zumindest mehr aufwand dabei zu betreiben, weil es sich schlicht lohnt. optimieren hat sich in der softwareentwicklung im sinne des endprodukts fast immer gelohnt...
das problem ist auch nicht dass die grafikkarten perse zu wenig leistung hätten, auch wenn die leistungssprünge zuletzt nicht so beeindruckend ausfielen wie in manchen gpu-generationen zuvor.
leistung haben heutige generationen durchaus genug - aber wenn das an mittelmässigen oder quasi nicht existenten optimierungen und auch an einem einheitsbrei an enignes (welche ihrerseits nicht besonders gut optimiert sind) verpufft, dann hat man den zustand heute..

ja, optimierung kostet (kompetente) entwicklerkapazitäten und nichts gibt es "umsonst" - das bestreite ich ja auch nicht.
aber wenn nirgens eine große notwendigkeit gesehen wird zu optimieren und es obendrauf eine technik wie das upscaling gibt mit welcher gröbere performnaceschnitzer inzwischen wie mit einem pflaster verarztet werden können, wird auch nicht "investiert" um zu optimieren. und wenn gaming anforderungen steigen, gibt es auch welche die sich daran durchaus "erfreuen" können...gpu hersteller zum beispiel.
aber das ist einwenig so wie wenn bei sportwettbewerben alle dopen, schlicht weil es frei verfügbar und ohne konsequenzen wäre. und die frage wäre nicht wieso gedopt wird oder was das für auswirkungen hat, sonder wer die "besseren" dopingmittel hat...

auf eines möchte ich in dem zusammenhang hinweisen: bei der entwicklung von gaming engines und games war eine starke innovationstriebfeder immer auch die einschränkung durch technik: wenn hardware etwas nicht gut abkonnte, musste man wege finden berechnungen zu vereinfachen oder algorythmen zu entwicklenm die nur näherungsweise rechnen, aber das gut genug machen und vor allem richtig performant.
(wer sich mal mit dem quelltext einiger älterer id titel beschäftigt hat, weiß wovon ich spreche..)
man konnte sich nicht erlauben etwas abzuliefern dass nur auf dem oberen viertel der verfügbarer hardware performant genug lief oder man hat schlicht potentielle käufer verloren. (zumal es bei früheren game tests durchaus üblich war auch die performance genauer zu beleuchten und wer dabei in der fachpresse nicht gut wegkam hatte einen malus auf der wertungsweste...)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Brrr und Fika
Hotzenplotz45 schrieb:
35 stabil minimum xD. Am liebsten nativ.

🤯

Ich glaube, da würde ich Kopfschmerzen kriegen 🤪

Meine Spiele stelle ich immer so ein, dass folgende Ziele dauerhaft und mit Reserven erreicht werden:

Entweder 120FPS, in der Regel dann ohne FG, außer bei absoluten Ausnahmen wie CP2077.

Oder idealerweise 240FPS, notfalls mittels smooth motion im Treiber, was erstaunlich gut funktioniert. Gibt aber auch überraschend viele Spiele, bei denen man ohne solche Krücken 240FPS erreichen kann.

Mittels smooth motion kann man auch Titel wie Huntdown, die ein hartes 60FPS Limit haben, auf 120FPS bringen, was besonders bei Sidescrollern richtig was bringt.

Dazu dann jeweils ELMB aktiviert und man bekommt die Bewegungsschärfe von 240 respektive 480, was schon extrem angenehm für die Augen ist.

60FPS ist für mich nur in absoluten Ausnahmefällen erträglich, wenn es auf Grund technischer Limitationen nicht anders möglich ist, sowas wie Blazing Chrome. Aber da ist die Unschärfe schon echt grenzwertig.

Mir sind möglichst viele FPS und somit minimale Unschärfe wichtiger als alles andere.

Aktuell spiele ich The Ascent und ohne Raytracing sind konstante 240FPS dort kein Problem und dann macht das auch Spaß.
 
Mit Dynamic MFG wird MFG deutlich interessanter.

Ich zitiere mal mich selbst vom 30.01.2025 (ist das wirklich schon über 1 Jahr her?! 😱):
erazzed schrieb:
[...]

Viel spannender wäre MFG, wenn es variabel wäre. Also quasi Framecap 120fps und je nach Anzahl der gerenderten ("echten") Frames wird in Echtzeit zwischen MFG 1x(nativ, ohne generiert)/2x/3x/4x geswitcht. Mark my words, wenn ein solches Feature mit der RTX 60 oder 70 genau so kommen wird: Variable Multi-Frame-Gen (VMFG) :D
Bis dahin ist für mich MFG komplett uninteressant.

Mein Wunsch wurde erhört! Und sogar noch vor RTX 60 😎

Ich fürchte jedoch, dass ich da mit meinem 144hz Monitor nach wie vor nicht glücklich werde und es erst mit 240hz so richtig brauchbar wird.

Ein FPS Target von 144fps würde ja immernoch bedeuten, dass
wenn fps > 144 => FG/MFG aus => alles gut
wenn fps < 144 => FG 2x => Base FPS werden auf ca. 77 reduziert mit allen Nachteilen bei der Latenz.

In diesem Beispiel würde man bei nativen z.B. 140fps trotzdem direkt hart auf ca. 77fps fallen, damit MFG 2x auf 144fps auffüllen kann. Bei einem 240hz Monitor mit 240fps Target ergibt das schon deutlich mehr Sinn, da man hier auf 120fps Base FPS fallen würde, was mMn bzgl Latenz top ist.

Ich bin gespannt, wie sich MFG in Zukunft noch entwickeln wird.
 
gibt es denn auch eine möglichkeit per FPS anzuzeigen ob gerade MFG off /2x/6x aktiv ist? das würde mich dann doch sehr interessieren wenn ich ingame direkt über die fps anzeige, ob jeetzt in farben definiert oder direkt neben der anzeige symbole sehe
Ergänzung ()

erazzed schrieb:
Mit Dynamic MFG wird MFG deutlich interessanter.

Ich zitiere mal mich selbst vom 30.01.2025 (ist das wirklich schon über 1 Jahr her?! 😱):


Mein Wunsch wurde erhört! Und sogar noch vor RTX 60 😎

Ich fürchte jedoch, dass ich da mit meinem 144hz Monitor nach wie vor nicht glücklich werde und es erst mit 240hz so richtig brauchbar wird.

Ein FPS Target von 144fps würde ja immernoch bedeuten, dass
wenn fps > 144 => FG/MFG aus => alles gut
wenn fps < 144 => FG 2x => Base FPS werden auf ca. 77 reduziert mit allen Nachteilen bei der Latenz.

In diesem Beispiel würde man bei nativen z.B. 140fps trotzdem direkt hart auf ca. 77fps fallen, damit MFG 2x auf 144fps auffüllen kann. Bei einem 240hz Monitor mit 240fps Target ergibt das schon deutlich mehr Sinn, da man hier auf 120fps Base FPS fallen würde, was mMn bzgl Latenz top ist.
du sollst einfach ne 5090 kaufen dann hast du deine 144 fps :D
 
TheInvisible schrieb:
Dann läuft bei dir was falsch. Wie gesagt, wenn du einen VRR Monitor hast im Treiber Gsync aktivieren, Vsync im Treiber auf an und im Spiel immer auf aus. Brauchst nie mehr einen Frame Limiter.
Im Treiber muss vsync NICHT an sein damit vrr und reflex funktioniert.

Vsync im treiber anzuschalten sorgt exakt dafür wofür vsync gedacht ist, EIN FRAMELIMIT.

Deswegen machts auch KEINEN unterschied vsync ODER 164fps frame limit einzustellen (165hz monitor) AUSSER das man bei vsync den nachteil hat, das man sich die zahl NICHT aussuchen kann.

vsync macht fast nie sinn, denn man muss abhangig von der durchschnittlichen gamelast limitieren und nicht von der immer gleichen monitor max refreshrate.

die latenz ist bei fg+reflex+vrr+framelimit gleich scheisse wie bei fg+reflex+vrr+vsync.

habs grad nochmasl in avatar getestet.

framerate mit x4 fg + reflex + vrr ist ca 270fps.

ob ich die nun mit fg+reflex+vrr+framelimit oder fg+reflex+vrr+vsync limitiere, macht bei mir 0 unterschied. In beiden fällen werden ca 110 fps weg geschmissen, wovon viele baseframes sind.
 

Anhänge

  • 2026-02-06-16-27-35-688.jpg
    2026-02-06-16-27-35-688.jpg
    1,6 MB · Aufrufe: 25
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
k0ntr schrieb:
du sollst einfach ne 5090 kaufen dann hast du deine 144 fps :D
Auch bei einer 5090 wird irgendwann mal der Zeitpunkt kommen, an dem sie nur noch mit Müh und Not ein paar fps ausgehustet bekommt :p
Wenn ich überlege, wie DLSS die Performance meiner alten 2080 Ti noch retten konnte. Spiele wie Alan Wake 2 wären auf der 2080 Ti ohne DLSS niemals spielbar gewesen. Für eine 5090 könnte dann MFG ein Lifesaver werden.

k0ntr schrieb:
gibt es denn auch eine möglichkeit per FPS anzuzeigen ob gerade MFG off /2x/6x aktiv ist? das würde mich dann doch sehr interessieren wenn ich ingame direkt über die fps anzeige, ob jeetzt in farben definiert oder direkt neben der anzeige symbole sehe
Das Steam Performance Overlay zeigt zumindest an, ob FG aktiv ist und was die Base FPS sind, siehe https://help.steampowered.com/en/faqs/view/3462-CD4C-36BD-5767

Ich hoffe jedoch, dass Nvidia das auch in ihr eigenes Performance Overlay aufnimmt.
 
@cypeak Ich verstehe Deine Argumentation.

Ich glaube aber, der Zug ist abgefahren. Das einzige was wir immer wieder - mal mehr und mal weniger - sehen werden, wird die bessere und kompetentere Integration der Upscalingverfahren usw. (was mMn nicht im Prinzip schlecht ist.) Aber da - wie Du ja auch ansprichst - das eine Zeit=Geld Frage ist, wohl wirklich intensiv auch nur bei 'gesponsorten' Titeln, damit entweder AMD oder Nvidia schön ihr Logo in den Startscreen pushen können.
 
k0ntr schrieb:
du sollst einfach ne 5090 kaufen dann hast du deine 144 fps :D
erazzed schrieb:
Auch bei einer 5090 wird irgendwann mal der Zeitpunkt kommen, an dem sie nur noch mit Müh und Not ein paar fps ausgehustet bekommt :p
Äh, also eigentlich ists auch jetzt schon ein Problem auf die 120fps zu kommen (in 4K) - ohne aggressives DLSS wären ja nicht einmal 60 drin. Mit DLSS Performance haben die 4090 und 5090 im hiesigen Mafia-Test jeweils 63 bzw. 70 fps erreicht. Konsorten wie BL4 und OW2 fast gleiches Spiel.

Entwickler machen es sich in letzter Zeit wirklich etwas zu gemütlich, ohne DLSS schafft eine 5090 runde 450 fps in FHD, in Outer Worlds 2.

Oh, Null zu viel, 45. Keine 60, 45. In 1920*1080. :hammer_alt:
 
Zurück
Oben