iamcriso schrieb:
Auf deine Aussage bezogen, kann dein WQHD Bildschirm „nur“ 60 Hertz, nützen dir auch auch 100FPS nichts, weil dein Monitor gar nicht nachkommt diese darzustellen.
Das ist nur in dem Spezialfall richtig, in dem Monitor und Grafikkartenoutput synchron laufen und nur wenige Millisekunden (ms) Phasenverschoben sind.
Also: Nie.
Zum einen ist der Grafikartenoutput nie konstant, die Frametimes sind je nach Aufwand in der gerenderten Szene mal länger und mal kürzer.
D.h. bei 60FPS kann es auch mal Abschnitte innerhalb einer Sekunde geben, bei denen die "FPS" unter 60 fallen.
Zum anderen, selbst wenn die Frametimes stabil über 60FPS wären, kann sich bei 60Hz mit 60FPS immer noch im Worst-Case, durch Phasenverschiebung von Monitor-Refresh und Grafikkartenoutput, eine Verzögerung von bis zu ca. 16ms einstellen, was besonders bei schnellen Shootern einen Nachteil bedeuten würde.
Verdoppelt man die Frames, bei einem 60Hz-Monitor auf ~120FPS, wird auch der Worst-Case deutlich besser, sodass der im Schnitt nicht ganz die 8ms erreichen wird, aber deutlich in diese Richtung wandert.
Je öfter der Frame im Frame Buffer aktualisiert wird, desto geringer ist im Schnitt das Alter des Frames, wenn der Monitor das nächste Mal seine Anzeige aktualisieren kann.
Ein interessantes Video, das diese Thematik untersucht findet man z.B. hier:
Der Link startet bei der Zusammenfassung des Videos (30:24), der interessante Part wird bei ca. 31:44-32:08 genannt:
Shroud's (ehemaliger CS:GO-Pro) Performance wurde mit 60Hz/60FPS, 60Hz/300FPS und 240Hz/240FPS verglichen.
Ergebnis:
Die Performance mit 60Hz/300FPS kommt nicht ganz an die Performance bei 240Hz/240FPS ran, ist der bei 60Hz/60FPS jedoch messbar überlegen.
Natürlich ist in solchen Fällen ein Monitor mit höherer Refresh-Rate immer vorzuziehen, aber einen kompletten Verlust hat man bei niedrigen Refresh-Raten und höheren FPS nicht.
Der Geldbeutel muss das am Ende entscheiden. (Oder halt die persönliche Empfindlichkeit bzgl. geringer Refresh-Raten...)