Beste globalen Einstellungen bei Geforce Systemsteuerung

Peleke

Lieutenant
Registriert
Feb. 2006
Beiträge
841
Mit meinem neuen PC und Geforce RTX 3060 Ti frage ich mich, was die besten Einstellungen in der nvidia Geforce Systemsteuerung sind.
Low Latency Off, On oder Ultra?
Triple Buffer an oder aus?
Andere Settings ändern oder auf Standard lassen?
Danke!
 
Anisotrope Filterung x16

Peleke schrieb:
Low Latency Off, On oder Ultra?
"Im Prinzip lässt sich dieser Modus für geringe Latenz bei allen Nvidia-GPUs aktivieren. Er funktioniert allerdings nur bei Spielen, die die Programmierschnittstelle DirectX 9 und 11 unterstützen. Bei Games, die auf DirectX 12 oder Vulkan setzen, entscheidet statt des Treibers das jeweilige Spiel darüber, wann das Einzelbild in die Warteschlange kommt. Laut Nvidia lassen sich die größten Auswirkungen feststellen, wenn das Spiel sehr GPU-lastig arbeitet und Bildraten zwischen 60 und 100 Bildern pro Sekunde erreicht werden. Sobald der Low-Latency-Modus aktiviert ist, sollen Gamer von einer Reaktionsfähigkeit profitieren, die sonst nur möglich wäre, wenn das Spiel mit weit über 100 Bildern pro Sekunde läuft. Mit anderen Worten: Wenn das jeweilige Spiel hauptsächlich abhängig von der Leistung des Haupt-Prozessors (CPU) ist, oder es in sehr geringen oder ohnehin schon sehr hohen Bildraten gespielt wird, dann wird Ihnen der Modus kaum Vorteile bringen."
 
Lass grundsätzlich einfach alles auf Standard. Das sind die "besten" Einstellungen.

Optional kannst du folgendes Global aktivieren:

- DSR -Faktoren: Damit ist in Spielen eine höhere Auflösung auswählbar, welche dann wieder auf deine Bildschirmauflösung herunterskaliert wird. Spiele die kein gutes Antialiasing haben sehen damit besser aus. Kostet aber entsprechend der eingestellten Auflösung enorm viel Leistung.

- Texturfilterung: Hohe Qualität

Falls du Gsync nutzt meine Empfehlung:
Vsync: Ein
Max. Bildfrequenz = max. Bildwiederholrate deines Displays minus 3
Monitor Technologie: Gsync Kompatibilität
Bevorzugte Aktualisierungsrate: Höchste verfügbar
Quelle: https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/



In modernen Spielen unter Programmeinstellungen kannst du je nach Spiel folgendes aktivieren:
  • Scharfstellen der Bilder (das Bild künstlich nachschärfen je nach Geschmack, nur wenn nötig)
  • Anisotropische Filterung 16x. (wenn die Texturfilterung in einem Spiel schlecht ist, auf 16x stellen - kann aber auch in manchen Spielen für zusätzliches Texturflimmern durch eine "überfilterung" sorgen! Sollte keinesfalls global aktiviert werden!)
  • AntiAliasing - Transparenz (wenn ein Spiel MSAA zur Kantenglättung nutzt, aber z.B. Vegetation nicht geglättet wird, dann hilft evtl. diese Option)
  • Modus für Geringe Latenz: Ultra (reduziert Inputlag, kann in manchen Spielen ein CPU limit verstärken und somit ein paar FPS kosten oder sich negativ auf Frametimes auswirken - empfehlenswert für schnelle Shooter - kann u.U. auch Global aktiviert werden, wenn die CPU sehr stark ist und du garantiert immer im GPU limit bist)


Die restlichen Optionen sind "Legacy" Optionen, also meist nur für sehr alte Spiele zu gebrauchen.
Die ganzen AntiAliasing Modi funktionieren mit DX11 und DX12 Spielen nicht mehr, da die Anwendung selbst bestimmt, welchens AntiAliasing genutzt wird. Man kann hier über den Treiber nichts mehr überschreiben/erzwingen.

Die Option für Dreifach Puffer ist nur für ältere Open GL Anwendungen nutzbar.

Der rest sollte selbsterklärend sein und Aktiv bzw. auf Standard belassen werden.



In der Windows 10 Systemsteuerung kannst du noch folgendes aktivieren:
1610446527211.png
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Duvar, cableffm, Peleke und eine weitere Person
B3nutzer schrieb:
Falls du Gsync nutzt meine Empfehlung:
Vsync: Ein
Zu G Sync zusätzlich auch V Sync eingeschaltet lassen, sorgt aber für einen erhöhten Inputlag.
 
  • Gefällt mir
Reaktionen: 24karat
grill schrieb:
Zu G Sync zusätzlich auch V Sync eingeschaltet lassen, sorgt aber für einen erhöhten Inputlag.

Nein, eben nicht. Lies bitte den verlinkten Artikel.

Wenn die FPS unterhalb der Vsync grenze limitiert werden, dann rauscht man nicht ins Vsync (das Puffern zusätzlicher Frames, was für den Lag sorgt, kann nicht passieren, solange Gsync greift), sondern man bleibt stets in der Gsync Range mit entsprechend geringem inputlag.

Das Vsync ist dazu da, um Tearing zu verhindern, falls einzelne Frames schneller kommen, als die Bildwiederholrate des Displays erlauben würde. Diese Frames werden dann entsprechend verzögert und Tearing somit 100%ig ausgeschlossen. (Ein FPS limiter kann leider keine perfekten Framtimes garantieren, deswegen aktiviert man eben Vsync, um einzelne Frames mit abweichender Framtime, die Tearing erzeugen könnten praktisch notfalls noch "abzufangen").

Mit FPS Limiter und Vsync an hat man praktisch ne doppelte Absicherung, dass die FPS UND auch die Frametimes stets im Rahmen der Gsync Range des Displays bleiben.

Nahe der Maximalfrequenz des Displays ist einfach beides notwendig.

EDIT: Hier für dich die Erklärung rauskopiert:

The answer is frametime variances.



“Frametime” denotes how long a single frame takes to render. “Framerate” is the totaled average of each frame’s render time within a one second period.



At 144Hz, a single frame takes 6.9ms to display (the number of which depends on the max refresh rate of the display, see here), so if the framerate is 144 per second, then the average frametime of 144 FPS is 6.9ms per frame.



In reality, however, frametime from frame to frame varies, so just because an average framerate of 144 per second has an average frametime of 6.9ms per frame, doesn’t mean all 144 of those frames in each second amount to an exact 6.9ms per; one frame could render in 10ms, the next could render in 6ms, but at the end of each second, enough will hit the 6.9ms render target to average 144 FPS per.



So what happens when just one of those 144 frames renders in, say, 6.8ms (146 FPS average) instead of 6.9ms (144 FPS average) at 144Hz? The affected frame becomes ready too early, and begins to scan itself into the current “scanout” cycle (the process that physically draws each frame, pixel by pixel, left to right, top to bottom on-screen) before the previous frame has a chance to fully display (a.k.a. tearing).



G-SYNC + V-SYNC “Off” allows these instances to occur, even within the G-SYNC range, whereas G-SYNC + V-SYNC “On” (what I call “frametime compensation” in this article) allows the module (with average framerates within the G-SYNC range) to time delivery of the affected frames to the start of the next scanout cycle, which lets the previous frame finish in the existing cycle, and thus prevents tearing in all instances.



And since G-SYNC + V-SYNC “On” only holds onto the affected frames for whatever time it takes the previous frame to complete its display, virtually no input lag is added; the only input lag advantage G-SYNC + V-SYNC “Off” has over G-SYNC + V-SYNC “On” is literally the tearing seen, nothing more.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ASCORBIN, Andre NotSure und Duvar
Wie du meinst, ich halte mich aber weiterhin an die Nvidia Vorgabe und lass Vsync weg, genau wie den frame limiter. Damit läuft es einfach perfektund das beste daran, man muss gar nicht erst irgendwas umstellen.
Ergänzung ()

Ach ja, und hier noch mal die Bestätigung, entgegen deiner großkotzigen Meinung, dass es Inputlag erzeugt!
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/6/
 
Zuletzt bearbeitet:
Du interpretierst die Balken falsch.
Im Text wird doch alles erklärt und begründet:

To eliminate tearing, G-SYNC + VSYNC is limited to completing a single frame scan per scanout, and it must follow the scanout from top to bottom, without exception. On paper, this can give the impression that G-SYNC + V-SYNC has an increase in latency over the other two methods. However, the delivery of a single, complete frame with G-SYNC + V-SYNC is actually the lowest possible, or neutral speed, and the advantage seen with V-SYNC OFF is the negative reduction in delivery speed, due to its ability to defeat the scanout.

Bottom-line, within its range, G-SYNC + V-SYNC delivers single, tear-free frames to the display the fastest the scanout allows; any faster, and tearing would be introduced.


Würde hier der volle Vsync + Triplebuffer Lag greifen, dann würden die Balken ganz anders aussehen.
Alleine 1 gepufferter Frame durch Vsync würde bei 60 FPS schon 16,6 ms an Latenz addieren. Aber davon siehst du hier natürlich nix, weil Vsync nicht im klassischen Sinne greift. Hier werden einfach nur die zu schnellen Frames auf die schnellstmögliche Scanout Zeit limitiert. Also auf die Fähigkeiten des Monitors. Logisch dass sich die Latenz dadurch minimalst erhöhen muss. Wie soll es auch anders sein?



Was du damit bezwecken willst, wenn du Vsync und FPS limiter komplett weglässt verstehe ich nicht. Wenn die FPS zu hoch sind, greift gar kein Gsync mehr.

Und nein, ich bin weder großkotzig noch sonst was. Ich versuche das thema nur zu erklären und habe Quellen dazu geliefert.


Abgesehen davon können wir uns glaube ich die Diskussion auch sparen, solange wir nichtmal wissen, ob Peleke überhaupt ein Gsync/Freesync Display nutzt.

Wobei von meiner Seite dann auch alles gesagt ist. Ich werde jetzt nicht den Streit suchen. Glaubt / versteht was ich erklärt und verlinkt habe oder auch nicht...
 
  • Gefällt mir
Reaktionen: Duvar, Andre NotSure und JPsy
Danke sehr, ich habe in der Tat einen G-Sync kompatiblen Monitor (Acer XB253Q)
 
Zurück
Oben