Nvidia Panel Quality Settings

famkcc

Banned
Registriert
Nov. 2020
Beiträge
318
Heyho!

wie der Titel es bereits bestens beschreibt, möchte ich die bestmögliche visuelle Qualität aus meiner Grafikkarte (RTX 3090 Eagle OC) rausholen. Meine Frage ist, ob es genügt das Preset auf Hohe Qualität zu stellen und Gsync zu aktivieren - oder gibt es noch Funktionen, die man aktivieren kann? Nutze den aktuellsten Treiber 457.30, verbaut ist eine AMD Ryzen7 3700x mit WaKü, sowie ein B450er Mainboard von MSI, RAM ist bereits OC und Timings abgestimmt.

Danke schonmal!
 
Du meinst bei "Meine bevorzugte Einstellung mit folgendem Schwerpunkt verwenden: Qualität" ?
Das macht nur 8x Anisotrophe Filterung und 4x MSAA zu erzwingen wo es geht.

Da geht neben den Qualitätssettings die eigentlich jedes moderne Spiel hat noch mehr, z.B.
MSAA im Controlcenter eizustellen macht fast nie Sinn, ich hab es immer auf "Anwendung entscheidet".
AF auf 16x ist gut und setzt LOD-Bias auf "Clamp".
Antialiasing-Transparenz auf MSAA hilft manchmal Laub und Zäune zu glätten falls das Game MSAA unterstützt.
MFAA finde ich auch gut, klappt aber nur in Games die MSAA haben.
Texturfilterung-Qualität auf Hohe Qualität deaktiviert ein paar Performancetweaks zugunsten von mehr Qualität.
Außerdem kannst du mit einer derart starken Karte natürlich DSR nutzen selbst wenn du schon in UHD zockst.
 
  • Gefällt mir
Reaktionen: Crisq
https://tweakguides.pcgamingwiki.com/NVFORCE_7.html

Sehr ausführliche Erklärung zu den einzelnen Punkten in der Nvidia Systemsteuerung. Meiner Meinung nach gibt es andere Dinge, welche die Spielerfahrung mehr bereichern (z.B. FPS Limit auf 1% Frametimes setzen für konsistente FPS). Grafisch muss man bei vielen Einstellungen den Unterschied nicht mit der Lupe, sondern dem Mikroskop suchen, wobei AF und AA schon den größten sichtbaren Unterschied bieten.

High Quality ist im übrigen nicht empfehlenswert, da es kaum (/gar keinen) sichtbaren Vorteil gibt, es aber Leistung kostet im Vergleich zu Quality.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crisq
AF 16x im Treiber zu erzwingen kann in modernen Spielen dazu führen, dass die Texturen zwar besser gefiltert werden und bei flachen Winkeln mehr Details zeigen, allerdings kann das auch zu Aliasing und Flimmern innerhalb der Texturen führen.

Bei alten Spielen funktionierts super, aber bei neuen muss man aufpassen..

AntiAliasing Transparenz ist ne gute Idee, wenn das Spiel denn überhaupt MSAA unterstützt.

Gsync verwendet man am besten mit aktivem Vsync und FPS limiter bei 3 FPS unterhalb der Maximalfrequenz. Siehe Blurbusters Gsync Guide.


Alles in allem würde ich also standardmäßig einfach nur Gsync, Vsync, FPS limiter aktivieren und Texturfilterungsqualität auf Hohe Qualität setzen.

Der rest ist je nach Spiel experimentell bzw. bei neuen Spielen meist nutzlos.
 
  • Gefällt mir
Reaktionen: Crisq und famkcc
famkcc schrieb:
... oder gibt es noch Funktionen, die man aktivieren kann?
Also ich rate jetzt mal und du zockst natürlich mit der fetten RTX3090 auf einem Oldschool Full HD Monitor.
Dann kannst du die Bildqualität auf ein ganz neues Level heben ... Nvidia Systemsteuerung, 3D Einstellungen,
DSR Faktoren: 4x aktivieren, DSR Glättung 0% und dann im Spiel (nicht auf dem Desktop) 3840x2160 wählen.
 
@0ssi
Ich nutzte tatsächlich einen 4K Monitor mit einem 10bit Panel und HDR.
Wozu ist DSR gut? Mein Desktop sowie Ingame sind bereits auf 3860x2160p.

@nr-Thunder
Ich habe den Limiter auf 118fps gesetzt, weil ich einen 120hz Monitor nutze. Bei einer RTX 3090 ... ob es sich lohnt an Leistung zu sparen 😅
 
Zuletzt bearbeitet:
@famkcc

Bei DSR kannst du im Spiel deutlich höhere Auflösungen einstellen, als dein Monitor eigentlich könnte.
Du kannst so z.B auf einem 1080p Monitor 4K einstellen oder auf einem 1440p Monitor 5K.

Die Grafikkarte skaliert das Bild natürlich wieder auf die Monitorauflösung runter, bevor das Bild ausgegeben wird, aber im Endeffekt sorgt dieses Downsampling eben für ein gutes AntiAliasing. Hast also weniger Flimmern und weniger Treppchenbildung im Bild. Zudem sollte der Detailgrad/Schärfe ansteigen.

Wenn du eh schon nen 4K Monitor hast macht es wenig Sinn, wobei du es natürlich trotzdem nutzen könntest. Da wird aus 4K dann eben 8K.


Die Funktion ist leider auch eher so ein Relikt von vor ~5+ Jahren, als die Spiele alle nur diese hässlichen FXAA Filter hatten und zugleich kein MSAA mehr unterstützten. Da war die einzige Möglichkeit, vernünftiges AntiAliasing zu bekommen dieses DSR bzw. Downsampling. Kostet halt nur dämlich viel Leistung, in vierfacher Auflösung zu Rendern.

Heutzutage nutzt fast jedes Spiel TAA. Wers noch schärfer und besser will hat dafür ingame meist Schieberegler für "Auflösungsskalierung" von 0.5 bis 2,0 oder von 50% bis 200%. Hier eben das selbe Spiel. 100% entspricht der Monitorauflösung. Bei 200% wird jede achse mit doppelt so vielen Pixeln berechnet (=4x so viele Pixel).
Diese Auflösungsskalierungs Optionen in den Spielen liefern aber ein sehr viel besseres Bild ab, als Nvidia DSR und sind daher immer zu bevorzugen (wenn man die Leistung dafür übrig hat). Zudem funktionieren die Zwischenfaktoren auch sehr viel besser als bei DSR. So reicht bereits 120 oder 130% aus, um eine Steigerung der Bildqualität zu sehen.


Aber am Ende sieht man auch hier wieder: Ingame Settings sind das Zauberwort. Die Treiber Einstellungen werden immer unwichtiger.
 
  • Gefällt mir
Reaktionen: JPsy und famkcc
Da ich auf meinem 4K Monitor so gut wie jeden Pixel sehen kann auf FULLHD, und bei WQHD eher weniger, bin ich ziemlich überrascht welche Steigerung das Preset Hohe Qualität + Clamp + trilinierare Filterung OFF + Gsync mit sich bringt. Vor allem in Kombination mit HDR, einfach geil!

@B3nutzer danke für die Erklärung. Ich wusste nie so richtig wozu DSR brauchbar ist. Konnte mir aber erahnen, dass bei der Funktion Leistung flöten geht. Ich denke, so wie du es bereits selber sagst, ist DSR in 4K nicht mehr nützlich, vor allem weil ich in den meisten Games sogar auf Antialiasing, TAA .... verzichten kann, aufgrund der hohen Auflösung.
 
B3nutzer schrieb:
@famkcc
Aber am Ende sieht man auch hier wieder: Ingame Settings sind das Zauberwort. Die Treiber Einstellungen werden immer unwichtiger.
Aber holla . . . . ich wollte schreiben: na jemand mit gutem Auge dafür holt das beste raus. Jedes Game brauch ich erstmal kurz Zeit das herauszusehen. Habe beim Monitor-Ausprobieren auch gemerkt das sich gute Einstellungen bspw. von Tn zu Ips deutlichst unterscheiden.
Pauschal kann ich hier anführen: wenn ich EINE Einstellung auf hoch oder ultra habe bring mir die nächste auf medium optisch einfach einen Geschwindigkeitsschub, der der Einstellung hoch oder ultra deutlich vorzuziehen ist . . .
Na, dann probier' ich mal Clamp usw.
 
Zuletzt bearbeitet:
So nachfolgend mal meine Einstellungen, beißt sich da etwas?

Hier sind die Meinungen ja sehr geteilt im Bereich AF aus oder auf 16?
und
Texturfilter auf Qualität oder Hohe Qualität?

- Sollte wenn Qualität eingestellt ist, trillinar Optimierung aus oder an sein?

Wie sieht mit der Umgebungsverdeckung aus, Qualität ok?
Hatte Monti in seinem Youtube Vid empfohlen für stärkere Karten.
Sollte bei 3080 passen.
Sumpersample deshalb mal auf 2x gemacht.

Freue mich über Kritik.

1.jpg


2.jpg

3.jpg
 
AF 16x... wie gesagt. Kann man sich jetzt drüber streiten. In manchen Spielen führt es zu flimmernden Texturen bzw. Aliasing innerhalb von Texturen. Da sollte es für bessere Qualität aus sein.
In anderen Spielen, die standardmäßig kein AF nutzen, steigert es die Texturqualität. Soweit die Fakten.

Meine Meinung: Ich würds global deaktiviert lassen, weil das das passende Setting für die allermeisten Spiele ist.
Die meisten Spiele nutzen von sich aus intern 16x AF oder bieten es als einstellbare Option in ihrem Grafikmenü an. In den Fällen ist es eben überflüssig, es im Treiber zu forcieren und man riskiert wie gesagt flimmernde Texturen, wenn mans über den Treiber erzwingt.

Wenn man also mit eigenen Augen sieht, dass das Spiel kein AF nutzt, dann schaltet man es eben im Treiber an und schaut obs besser ist. Ganz einfach...


AntiAliasing Transparenz kann nur greifen, wenn das Spiel selbst "MSAA" nutzt. Was in den meisten aktuellen Spielen nicht mehr der Fall ist. Da wird TAA oder SMAA usw. genutzt, nur noch sehr selten MSAA.

Wenn ein Spiel MSAA nutzt und "wenn" die Option dann auch noch greift (garantiert ist das nie), kann es aber unter Umständen deutlich an Performance kosten. Sollte man ggf. im Auge behalten und würde ich daher auch nicht pauschal aktivieren. In manchen Spielen bringt es optisch auch gar keinen Vorteil, weil das Zusammenspiel mit dem Spiel verbuggt ist, frisst aber trotzdem ein drittel der FPS.

Meine Meinung: Würde ich nur nach Bedarf aktivieren, nicht global. Generell ist Antialiasing Transparenz nur dann nutzbar, wenn das Spiel MSAA nutzt und wenn zusätzlich Vegetation und Bäume stark flimmern (Vegatation = teiltransparente Texturen, daher der Name). Dann ist es nen Versuch Wert. Das flimmern sollte dann weniger werden.


Texturfilterung Hohe Qualität kann man lassen. Trilineare Optimierung ist da automatisch deaktiviert.
"Qualität" ist aber kaum schlechter, auch mit Trilinearer Optimierung ein. Den Unterschied wirst du nicht sehen, wenn du nicht auf Pixelebene vergleichst. Performancehit bei Hohe Qualität ist messbar und das auch reproduzierbar. Liegt aber nach meinen Tests bei <1%. Kann aber bei manchen Spielen auch etwas mehr sein.


Umgebungsverdeckung: Mach das aus.
Hierdurch wird in alten Spielen per Treiber Ambient Occlusion eingefügt. In modernen Spielen ist die Option völlig wirkungslos, da nicht kompatibel. Zumal moderne Spiele den Effekt in deutlich hochwertigerer Form schon selbst mitbringen. Seit gefühlt 10 Jahren. Bei alten Spielen kann es durchaus die Grafik aufwerten, aber wenn es passiert, dass die Option in einem Spiel funktioniert und das Spiel zugleich den Effekt schon selbst nutzt, dann bügelst du das noch ein zweites Mal drüber, was zu Grafikfehlern führen kann.

Auch hier nur nach Bedarf bei sehr alten Spielen aktivieren.


Unterm Strich bleibe ich dabei. Die Standardsettings sind die bestmögliche Grundlage. Ändern sollte man nur nach Bedarf für einzelne Spiele. (natürlich ausgenommen der Settings für Gsync mit FPS limiter usw)

Dazu sollte man aber genau wissen, was die Option bewirkt und ob sie mit dem jeweiligen Spiel kompatibel ist.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Crisq und JPsy
Danke dir für die ausführliche super Erklärung!!!
Hab gestern auch nochmal etwas geändert und direkt zurück auf Qualität gestellt, wie du empfohlen hattest. und Trilineare Optimierung ist aus., oder muss die unter Qualität an sein- wenn nicht Hohe Qualität gewählt ist? Werde die anderen Werte noch anpassen.

AF habe ich dann von 16x auf Anwendungsgesteuert gesetzt, ist aber irgendwie doppelt drin=
Aus oder Anwendungsgesteuert ist doch quasi das gleiche?!


Eine Frage noch zum Latency Modus:
Ich habe den schon von Ultra nur auf Ein gestellt.
Sollte der überhaupt an sein, wenn man den im Spiel aktivieren kann?
Was wäre hier generell die beste Option?
 
Zuletzt bearbeitet:
Wenn du die Texturfilterungsqualität änderst, dann wird auch die Trilineare Optimierung entsprechend mitgeändert. Wenn du auf Qualität stellst, sollte die Optimierung automatisch auf ein stehen. Würde ich so lassen. Wie gesagt, die Unterschiede sind bei Bildqualität und Performance so minimal... im Endeffekt machts wirklich keinen Unterschied.

AF wenn dann auf Anwendungsgestuert, richtig. Sorry. Mit „aus“ meinte ich einfach nur nicht die 16x erzwingen und somit die Treiber Voreinstellung nutzen. Und die ist eben „Anwendungsgestuert“.

Low Latency Modus ist so ne Sache.
Kann man durchaus mal pauschal auf Ultra stellen. Man profitiert hier tatsächlich von einer geringeren Latenz. Messbar ist es laut einigen Tests zumindest. Ob mans wirklich merkt hängt oft vom Spiel und der Framerate ab. Bei 200 FPS wird mans nicht merken, bei 60 schon deutlicher.

Man verhindert damit dann aber auch, dass die CPU Daten für nachfolgende Frames vorbereiten darf. Sie muss die Daten dann „just in time“ zur GPU liefern. Man riskiert hier also dass man ein wenig stärker richtung CPU limit rutscht.

Ist ein Spiel also generell CPU limitiert oder nur in manchen Szenen CPU limitiert oder hat man ne ältere CPU verbaut, dann riskiert man hier, etwas schlechtere Performance oder auch schlechtere Frametimes.

Tatsächlich werd ich bei gelegenheit hier auch selber nochmal ein paar Spiele testen.
ich kann nur sagen, dass ich bei einem Spiel, das ich damals getestet habe, schlechtere Frametimes und sichtbares Microruckeln mit Low Latency Ultra hatte. Aber wie gesagt, war jetzt nur ein Spiel. Ob das ne Ausnahme oder ein Bug war, weiß ich nicht. Ne Meinung ob aus oder Ultra will ich da erstmal nicht aussprechen.

Low Latency auf „ein“ zu setzen wird übrigens in den meisten Spielen keinen Unterschied machen. Hier darf die CPU die Daten für maximal einen (1) nachfolgenden Frame vorbereiten. Das ist aber genau die Einstellung, die eh schon nahezu alle Spiele nutzen.

Wenn in Spielen übrigens Nvidia Reflex verfügbar ist, dann wird der Low Latency Modus im Treiber einfach überschrieben bzw. außer Kraft gesetzt. Die beiden Optionen können sich somit nicht behindern.
 
  • Gefällt mir
Reaktionen: Crisq
Ich hab mal ein "paar" Benchmarks mit CapFrameX in Immortals Fenyx Rising auf meiner 3060ti gemacht.

Jede Messung ist mit drei Durchläufen gemacht, um Messungenauigkeiten zu minimieren.
Das Spiel eignet sich ganz gut zum Testen, weil das Game noch DX11 nutzt und daher z.B. der Low Latency Modus auch funktioniert (in DX12 und Vulkan funktioniert der nicht). Das Spiel braucht in hohen Auflösungen viel VRAM, ist generell ziemlich fordernd und auf meiner CPU komme ich relativ leicht ins CPU limit. Zudem hat es nen integrierten benchmark, mit dem ich getestet habe.

Die Ergebnisse sind ganz interessant.

"LL" = Low Latency Modus
"Q" = Texturfilterungsqualität - Qualität
"HQ" = Texturfilterungsqualität - Hohe Qualität

CapFrameX.png




Ich schließe daraus, dass Texturfilterung Qualität vs Hohe Qualität bei VRAM- oder Bandbreitenmangel die Frametimes verschlechtert.

Das gleiche gilt noch deutlicher beim Low Latency Modus. Dass der im GPU limit ein bisschen Leistung kostet ist normal, da der Low Latency Modus versucht, die GPU unter 100% Auslastung zu halten. Das sorgt für die besseren latenzen.

Sobald jedoch der VRAM limitiert, werden durch den Low Latency Modus die Frametimes extrem schlecht.


Hier mal ein Beispiel, was im VRAM Limit passiert, wenn man den Low Latency Modus mit HQ Texturfilterung kombiniert und wie viel besser es läuft, wenn man den Low Latency Modus deaktiviert und Texturfilterung auf "Qualität" stellt.

VRAM Limit.png


Wie man schon sehen kann, war der Unterschied sehr extrem. Die Balken haben es angedeutet, aber der Frametimeverlauf ist katastrophal. Im VRAM limit ist das Spiel mit Low Latency Ultra + HQ teilweise für 500 ms stehen geblieben und hat generell extrem geruckelt.
Ohne Low Latency Modus lief es zwar bezogen auf die FPS immer noch schlecht, das extreme stottern war aber nahezu komplett weg.


Klar, die extremen Verschlechterungen der Frametimes durch den HQ Modus sowie den Low Latency Modus hab ich jetzt nur in VRAM limitierten oder Bandbreitenlimitierten Szenarios klar nachweisen können (also hier nur mit maximalen Details in 2160p bzw. 2520p) . Limitiert der VRAM nicht, dann ist der Unterschied zwar da, aber sehr gering.

Ich werde dennoch in Zukunft Low Latency deaktiviert lassen und Texturfilterung auf Qualität stellen.
So hat man garantiert immer die maximale Performance und die bestmöglichen Frametimes.

Bei schnellen Shootern bei denen die Latenz wichtig ist, ist der Low Latency Modus natürlich durchaus einen Test wert. Zumindest solange der VRAM nicht voll ist.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Crisq
Mega! Danke!
Super Test von dir! Sry für die späte Rückmeldung.

Also ins GPU Limit sollte ich mit dem i9 10850k nicht rutschen.
Wie das VRAM Limit bei der 3080 sich auswirkt wird sich zeigen, aber ganz ehrlich bezweifle ich, dass der Vram in naher Zukunft so ein Problem sein wird, wie oft heraufbeschworen.
Wie man an einzelnen Spieletest der 3060 12GB sieht nutzt diese zB. nur 500Mb mehr als deine 3060Ti zB. 7000MB vs 7500MB - ganz klar die Spiele sind auch noch nicht darauf angepasst, aber die Mainstream Karten haben halt max. 8GB und man will sich die Käuferschicht nicht aussperren.

Habe Low Latency auch ausgestellt - zumal bei den schnellen Shootern im Menü selbst eine Low Latency Option gibt mitunter - und wie du schon sagst wird die Anwendung den System Treiber überschreiben von daher.

Sehr interessant das Ganze! Danke nochmal für die Erklärung und Aufbereitung!
 
@Crisq

Kein Ding, wobei das natürlich nicht uneigennützig war. ;)
Ich wollte es jetzt auch mal selbst genau wissen und der Thread hier hat mir jetzt mal Anlass gegeben es zu testen. Auch wenns im Alltag relativ wenig Unterschied macht, aber jetzt hab ich auch meine Gewissheit und weiß, welche Auswirkungen die Settings haben.
Dass die Unterschiede erst im VRAM limit so krass sind, hab ich dann auch nur aus Zufall bemerkt und dann weitere Tests gemacht...

Und nachdem es mit CapFrameX so ein tolles Tool gibt, das alles schön sauber aufzeichnet und aufbereitet, hielt sich der Aufwand zum Glück in Grenzen.


Dass die 8 GB bei meiner bzw. die 10 GB bei der 3080 zum Problem werden glaube ich auch eher weniger.
Es kommt natürlich sehr stark auf die Settings und Auflösung an und sicherlich wird man in Zukunft bei dem ein oder anderen Spiel auf die maximale Texturstufe verzichten müssen. Aber diese Ausnahmen wird es immer geben. Gab schon vor über 5 Jahren Spiele, die zwingend 8GB in 1080p gebraucht haben, weil es eben ein Texture Pack vom Entwickler gab oder eben ne Ultra Texturstufe, das nahezu unkomprimierte Texturen bereitgestellt hat. Die optischen Unterschiede waren da aber meist extrem gering.

Sowas wirds immer geben. Die Frage ist eben, was man genau erwartet.
Ich bin mir sicher, dass 10 oder 8 GB die nächsten Jahre ordentliche Grafik ermöglichen werden und in wahrscheinlich 99% aller Spiele maximale Grafikeinstellungen erlauben.

Ob man für ein paar Ausnahmen und vermeintliche Zukunftssicherheit zu ner 3090 greifen sollte und dafür gleich das doppelte hinlegt oder ob man zu einer 6800(XT), die an anderen Stellen Kompromisse eingeht greift, halte ich für fraglich. Aber sowas muss jeder für sich entscheiden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Crisq

Ähnliche Themen

Zurück
Oben