144Hz/fps hat meine Input-Lag-Empfindlichkeit ruiniert

frgntz

Lt. Junior Grade
Registriert
Okt. 2017
Beiträge
297
Hallo,

ich möchte mein Problem hier beschreiben und wissen, ob ich nur überempfindlich auf Input Lag bin oder irgendwas mit meinem PC/Monitor nicht stimmt. Die Hardware ist in der Signatur.

Das ist natürlich nicht mehr mit aktuellen Sachen zu vergleichen, bin aber froh dass diese Konstellation noch gute Arbeit leistet. Ich konnte Mehrzahl der Games fast immer mit paar Tweaks mit 144fps oder zumindest über 100fps zocken. Aktuelle Titel sind teilweise schon zu fordernd für die Hardware und ich muss mich manchmal mit unter 90fps zufrieden geben (zB Cyberpunk).

Da beginnt das Problem, meine Maus fühlt sich extrem träge an, je mehr ich unter 100fps komme, so dass es für mich kaum spielbar ist. Der Input sehr "nachgelagert" und unpräzise, jeder kennt wie crisp die Mausbewegungen bei 144fps sind, die das gewohnt sind. Sowas wie Terarria konnte ich deswegen überhaupt nicht zocken, da es auf 60fps locked ist und meine Maus sich wie Bewegungen durch Schlamm anfühlt.

Ich habe schon mit üblichen Einstellungen experimentiert in Nvidia Einstellungen (Vsync/Gsync/geringe Latenz etc.). Bin ich zu überempfindlich geworden, was den Mauslag angeht? Ich kann mich kaum erinnern, dass es sich früher genauso angefühlt hat, als noch 60fps high end war.
 
  • Gefällt mir
Reaktionen: Tritom73 und Tzk
Sicher das es nicht generell an Lag wie durch Vsync und schlechten min. fps liegt anstatt generell an der durchschnittlichen Framerate?
 
Das kenne ich teilweise. Mein Monitor hat 165hz mit G-Sync und alles unter 60fps ist für mich nur bei "ruhigen" Spielen wie Simulatoren erträglich.

Bei War Thunder habe ich mit aktivem SSAA x4 z.B. 50-70fps, das ist für mich nicht erträglich, fühlt sich total schwammig und verzögert an.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ich versuche mal das Ganze mit einem sauberen Treiber zu beobachten. Wie Simanova geschrieben hat, müssten die Einstellungen zunächst am besten sein mit Vsync aus und Ultra Latenz, ich benutze Gsync. Ich glaube wirklich, dass es einfach Sache der Wahrnehmung ist und ich reagiere da zu sehr drauf.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Meiner Erfahrung nach hängt das extrem vom Spiel ab.

Ich würde davon ausgehen, dass mit deiner Hardware alles in Ordnung ist, und das schwammige Gefühl "state of the Art" ist.

Ansonsten wurde ja schon V-sync genannt.
Aber bei <100FPS und 144Hz Monitor, solltest du damit keine Probleme haben.

Manche Spiele verändern allerdings die refresh rate des Monitors...da muss man aufpassen, dass man nicht trotz 144Hz Monitor, mit 60Hz spielt. ;)
 
Vsync auf alle Fälle aus. Immer.

Ich find Cyberpunk fühlt sich mit weniger FPS aber auch eher träger, bzw. verzögerter an als andere Titel.
Zumindest ist es mir da auch aufgefallen.

In Terraria wäre mir das allerdings neu.
 
  • Gefällt mir
Reaktionen: ReignInBlo0d
Guter Punkt, würde dann aber nicht Gsync automatisch den Monitor an die 60Hz anpassen, wenn man an 60fps kommt? Ist natürlich ein Extrembeispiel mit 60fps. Ich schraube dann doch lieber die Settings runter.
 
Ich würde sowas gerne mal mit einer high speed Kamera filmen.
So kann ich nur subjektive Eindrücke beisteuern.

Cyberpunk ist im GPU Limit extrem träge.
Probier mal aus, den integrierten FPS limiter zu nutzen.
 
Empfiehlt es sich dann generell ohne Gsync zu spielen, wenn man weit unter 100fps kommt? Sonst passt ja Gsync die Hz an und das Bild wirkt sowieso durch die niedrigen Hz dann träge.
 
frgntz schrieb:
würde dann aber nicht Gsync automatisch den Monitor an die 60Hz anpassen, wenn man an 60fps kommt?
Ist aber was anderes, ob sich der Monitor mit den Hz an die 60 FPS anpasst, oder ob er mit 60Hz läuft.

...ich kann mal was zur Theorie schreiben....da brauche ich aber kurz. ;)
 
  • Gefällt mir
Reaktionen: ReignInBlo0d
Terarria ist ja nun kein Grafikbomber...
auch wenn in dem Spiel gar nicht nötig... wird dir da halt die "lahmheit" wieder ins Gesicht gedrückt.
wenn es das spiel nicht hergibt... mit mehr als 60Hz zu laufen... pech.
Vielleicht nicht im Vollbild spielen?

MfG
 
Lag-Stationen:

Input: Maus/Tastatur und ihre Verarbeitung.
Billige Geräte können hier z.B. 16ms brauchen, aber ordentliche Geräte laufen mit 1000Hz(=1ms) und da gibt es eigentlich keinen spürbaren Unterschied mehr.
Eventuell steckt so eine Maus aber in einem USB Hub, oder der USB Anschluss geht über den Mainboard Chipsatz anstatt direkt von der CPU zu kommen.
Oft macht das keinen Unterschied, aber manchmal schon.

Wenn es in manchen Spielen gut läuft, kann man das eigentlich ausschließen.

Verarbeitung im Spiel:
Hier kann man schlecht nachgucken. ;)
Aber teilweise ist das Spielgeschehen an die FPS gekoppelt.
Teilweise kommt es zu komischen Effekten, wie z.B. bei Starcraft2, wo die Frametimes einen Kamm aus Peaks haben...und je nach FPS Bereich zeigt der Kamm nach oben und verschlechtert das Spielgefühl, oder nach unten und er hat keinen Einfluss auf das Spelgefühl.
1% schlechtere FPS können sich plötzlich 30% schlechter anfühlen.

Daher brauchen manche Spiele einfach mehr FPS, bis sie sich gut anfühlen.

Die Drawcall Warteschleife:
Der wichtigste Unterschied von CPU zu GPU Limit(bezogen auf den Lag).
Um die GPU auch konstant mit Drawcalls(die nötigen Daten für die Frames) zu versorgen, bauen Spiele im GPU Limit eine "Warteschlange" auf.
Die GPU bekommt nicht die neuesten Daten, sondern veraltete....so hat die CPU noch drawcalls in Reserve...und die GPU kann versorgt werden, auch wenn die CPU mal etwas ausgebremst wird.
Je nach Spiel sind das unterschiedlich viele...und scheinbar bei Benutzung von V-sync nochmal extra viele.....auch das abhängig vom Spiel!

Baut das Spiel eine Warteschlange aus 5 Drawcalls auf, ist der dadurch entstehende Lag, abhängig von den FPS.
Schafft die GPU alle 5ms(200FPS) einen neuen Frame, sind 5 Drawcalls "nur" eine Verzögerung von 25ms.
Aber schafft sie nur 20ms(50FPS), dann sind das schon 100ms zusätzlicher Lag.

Die Latency Verbesserungen die man bei AMD und Nvidia im Treiber wählen kann, sollen diese Warteschlange auf 0-1 zwingen....Nvidia verspricht sogar noch weitere Optimierungen in der Pipeline, die sogar noch besser sein sollen...keine Ahnung, ob das funktioniert....es wird vermutlich stark vom Spiel abhängen.

Im CPU Limit wartet die GPU auf die Drawcalls....hier kann sich keine Warteschlange aufbauen, da jeder fertige Drawcall, sofort an die GPU geht und der Input Lag ist minimal.
Dafür können die Frametimes deutlicher schwanken, da nicht nur die GPU ungleichmäßig lange für das Berechnen braucht, sondern auch noch unregelmäßig mit Drawcalls versorgt wird.

Spielinterne FPS Limiter sind manchmal wie ein CPU Limit, und verbessern den Lag...manche arbeiten wie die externen FPS Limiter und sind träge wie ein GPU Limit....muss man wieder ausprobieren. :)
In Cyberpunk hilft der interne Limiter....besser 40FPS Limiter, als 60 FPS GPU Limit.

GPU Renderzeit:
Logisch...die Zeit, die die GPU braucht, verzögert das Bild.
Im GPU Limit ist das z.B. 10ms bei 100FPS ....im CPU Limit kann es sein, dass die CPU 10ms für die Drawcalls braucht, und die GPU dann z.B. nur noch 5ms zusätzlich.

Senden an den Monitor:
Bei einer synchronisation mit dem Monitor, wird gewartet bis ein vollständiges Bild fertig ist und gesendet wurde....das kann zusätzliche Verzögerungen bringen, die aber bei Fresync/G-sync zu vernachlässigen sind.
V-sync kann unregelmäßig viel Lag haben...bis zur Renderzeit der GPU(normales V-sync, oder Fast sync(Nvidia)/erweiterte synchronisation(AMD)), oder auch doppelt bei einer Form von Tripple buffering.

Ohne synchronisation wird das Senden eines Frames nicht unbedingt abgeschlossen.
Ist das neue Bild schon fertig, aber das vorherige Bild ist erst zu z.B. 50% gesendet, wird der Pointer auf das neue Frame gewechselt und das neue Bild wird gesendet.
So zerreist das Bild, da oben noch das alte Bild ist, und unten schon das neue.
Aus Sicht des Input Lags ist das natürlich optimal, da die neuen Daten sofort gesendet werden.

Der Unterschied zu Freesync/G-sync ist aber minimal, und du solltest den Unterschied nicht spüren können.

Für das Senden helfen helfen generell hohe FPS und hohe Hz, da die Daten regelmäßiger und frischer an den Monitor kommen.

Darstellen am Monitor:
Verarbeitungszeit, Reaktionszeit des Panels, Overdrive Einstellungen....
All das kann einen kleinen Unterschied machen, aber zwischen ordentlichen 144Hz Monitoren wird das nicht entscheidend sein.

Viele Panels schaffen es allerdings nicht, in der Zeit, zwischen den Refreshs, auch vollständig die Farbe zu wechseln. Das kann zu Unschärfe und einem gefühlten Lag beitragen.
Zu viel Overdrive kann zu, falschen Farben und nachziehenden "hellen Schatten" führen.

Trotzden...ob das jetzt 6 oder 9ms dauert, ist eher nicht spürbar.
Aber das Laptop Display von unserem Dell notebook wurde mit 43ms getestet und das sieht man wirklich.


............Zusammenfassend:
Von den einzelnen Effekten ist fast nur die Warteschlange der Drawcalls entscheident.
...diese hängt stark von den FPS ab, oder ob man sie mit Einstellungen oder einem CPU Limit verhindern kann.

Ob der Rest 5ms mehr oder weniger ist, ist nur für den 400FPS CS Go Profi interessant.
Aber ob es 15 oder 125ms sind, ist auch für den normalen Spieler spürbar.

.......Ergänzung:
Manchmal ist man auch chancenlos!
Wenn das Spiel für Gamepad/Konsole programmiert wurde, und sich die Spielfigur so bewegen soll, als würde man sie mit Gummibändern durch die Welt ziehen, kann da auch der beste Input Lag nichts dran ändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Endless Storm
frgntz schrieb:
Ich kann mich kaum erinnern, dass es sich früher genauso angefühlt hat, als noch 60fps high end war.
Für mich war der Wechsel auf Windows 10 eine kleine Katastrophe, weil man dort den VSync auf dem Desktop nicht mehr deaktivieren kann. Ich musste dann einen 144Hz Monitor für das Büro beschaffen, weil sich der Mauszeiger unter Windows 10 bei 60Hz anfühlt wie Rühren in Melasse. Für mich besteht das Problem also erst seit Windows 10. Davor war die Welt für mich auch bei 60Hz noch in Ordnung ;).
 
Zurück
Oben