Ideen-sammeln-für-Latenzmessungen-1200FPS

Baal Netbeck

Fleet Admiral
🎅Rätsel-Elite ’24
Registriert
Apr. 2008
Beiträge
13.348

Hallo PC-Spieler,​

ich habe mir die Tage eine gebrauchte Nikon 1 J4 gekauft, weil ich schon lange mal im Detail den Monitor abfilmen wollte und diverse Aussagen zu Latenzen, Frametimes, Synchronisation und Pixeltransitions mit Zahlen und Bildern/videos untersuchen wollte und es bis jetzt meist nur ein subjektive-qualitative,s anstatt quantitatives Beobachten war.​

Kauf und technische Möglichkeiten:​

Nun wollte ich dafür nicht viel Geld ausgeben und Profikameras gehen in die tausende....andere Kameras die angeblich 1000 FPS können, verrechnen das dann zu einem Video mit z.B. 500 FPS, was ich nicht gebrauchen kann.
Die Nikon ist trotz ihres Alters scheinbar einzigartig in ihrer Videofähigkeit. Ich habe ein Modell mit kaputtem Zoom erstanden und daher nicht viel gezahlt.

Die 1200 FPS kommen mit einem großen Nachteil...416x144 Pixel für 3 Sekunden. ;)
Auch sind die Aufnahmen zusätzlich recht verrauscht. Tolle Qualitätsvideos wie von den Slow Mo Guys kann man also in der Pfeife rauchen.

Erstes Basteln und Probemessungen​

Wie schon der Betreiber von Battle(Non)Sense, habe ich heute Abend eine alte Maus von mir aufgeschraubt und eine LED an den linken Maustaster gelötet. Die LED kann ich dann vor dem Monitor ins Video plazieren und sehe direkt den Maus down und Maus up....und dann eben die Reaktion am Bildschirm.

Es ist so also möglich den echten Button to Pixel Delay zu messen, indem ich die Frames im Video zähle.
Ist sehr mühselig und man braucht denke ich für jeden Messpunkt locker 10 Aufnahmen...eventuell mehr, denn die Streuung ist auf den ersten Blick groß.
Ich habe in Hogwards Lagacy zwei Test läufe mit einer handvoll Aufnahmen gemacht und lag zwischen 42 bis 49 Frames Verzögerung...sowohl für die Animation des Standardzaubers, als auch eine Kameradrehung.....macht ca. 38ms button to Pixel Delay.
FrameView meint zur PCL ca 20 ms. Wobei es dann etwas später schon 33 ms waren?

Mir ist klar, dass es da inzwischen andere Möglichkeiten zur Latenzmessung über spezielle Monitore und spezielle Sensoren gibt....ich fand die Kamera Variante resistenter für Fehler und ich wollte ja noch mehr beobachten, als nur die Latenz.

Jetzt die Frage an euch!​

Was habt ihr für Vorschläge bezüglich möglicher Messungen?

Ich habe keine Ahnung wann ich Zeit dafür finde die Messungen zu machen und vor allem die Auswertung wird lange dauern.

Wenn ich belastbare Ergebnisse habe, werde ich diese natürlich in einem Leserartikel veröffentlichen....aber habt Geduld...es ist ja ein Hobby.

Gerade wegen der eingeschränkten Zeit, wäre es natürlich gut, wenn ich besonders interessante Themen zuerst behandle.
Ich habe natürlich einen Haufen eigener Idden, aber vermutlich habt ihr noch bessere oder könnt mir bei der Priorisierung helfen.
Latenzen sind erstmal das einfachste, aber auch etwas, das andere schon (besser) gemacht haben.

Ich werde nicht umhin kommen erstmal nur herum zu probieren. Vor allem brauche ich eine bessere Methode, als das Video frame für frame weiter zu klicken und im Kopf die vergangenen Frames zu zählen. ;)

Eventuell kann ich das in einem Videoeditor besser ablesen? Wenn da jemand von euch eine gute Methode kennt, bin ich froh nicht suchen/testen zu müssen.

Pixel transitions sind mit einer Abtastung von 0,83ms nur schwer zu beobachten, aber deutlich verschiedene Monitore sollten schon vermessen werden können.
Ich habe z.B. einen 144Hz TN Monitor und einen 240Hz IPS Monitor....das TN Panel zeigt in den UFO-Tests weniger Ghosting, obwohl er weniger Hz hat. Wäre interessant, wie sich das auf die Latenz auswirkt.
Mein Laptop Display ist so träge, dass man es deutlich sehen kann....das will ich auch messen.

Aber da ist die Frage in welcher Situation?
Ich tendiere zu einem Spiel, da es dort darauf ankommt, aber ein Programm, das einfach mit klicken die Farbe ändert oder sowas....das wäre einfacher und vermutlich reproduzierbarer.

V-sync, Freesync, fast sync....sowas hat Battle(non)sense schon vor Jahren ausgiebig getestet, aber eventuell hat sich etwas geändert?

Frame limiter und ihre Auswirkungen?

Framepacing? Ich weiß. dass ich es spüre, wenn der Frametimeverlauf peaks zeigt. Aber mal sind es einzelne Peaks, mal geht ein Peak hoch und direkt darauf einer runter...was passiert da visuell?
Das wird sehr schwer zu messen und zu zeigen.
Vor allem mit der geringen Auflösung, ist es fraglich, was ich da überhaupt herausfinden kann.
Ich würde es aber versuchten wollen....auch hier gerne Tipps geben. ;)

Nikon 1 J4 und eine roccat kone pure mit LED am linken Maustaster.

Verschiedene AM4 PCs und verschiedenste AM4 CPUs: 5800X3D, 5700X, 3950X,...bis runter zum Ryzen 1400
Laptop CPU:13700H

Verschiedenen DDR4 RAM.

Grafikkarten: RX 9070 XT, Radeon VII, Vega64, GTX 1080 Ti, und am Laptop RTX4060

Monitore: LG UltraGear 27GR83Q-B(1440p 240Hz IPS), AOC AG241QX(1440p 1440Hz TN), Laptop Display(4K 60Hz IPS) und ein paar ältere Monitore.

Verschiedene Mäuse, wobei ich keine Lust habe weitere davon zu modifizieren. Ich könnte mir aber vorstellen einen Bewegungstest zu machen, wo ich die Maus halb im Bild habe und dann anstupse...oder teste ob Front USB, IO Shield, USB HUB, Bluetoth, 2,4GHz einen Unterschied macht.

Als Spiele habe ich eine große Sammlung, aber natürlich nicht alle. ;) Ich würde auch eher Spiele testen wollen, die ich selbst gerne mag, oder wo ich die Latenz als mögliches Problem sehe. Aber gerne Vorschläge...auch in Bezug auf Tearing oder andere Phänomene.

Ich bin auf eure konstruktiven Vorschläge und Anregungen gespannt. :)


Eine der ersten Messungen als Beispiel:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Drewkev, SpamBot, Conqi und 4 andere
Baal Netbeck schrieb:
mit klicken die Farbe ändert
Bei Shoothern das Mündungsfeuer an der Waffe geht bestimmt auch gut.

Zum Messen einfach die KLassiker: Window vs. Vollbild, verschiedene Framebegrenzer usw... Bei Nvidia gibt es ja auch so späße wie Low Latency Modus, das wäre auch intereressant ob das was bringt.

Cooles projekt, viel Spaß beim Messen :)
 
  • Gefällt mir
Reaktionen: Azghul0815 und Baal Netbeck
Danke für die Rückmeldung... Vollbild hatte ich nicht auf dem Schirm...wird als Test aufgenommen und low latency Mode auch.

Wäre interessant, wie sich da AMD und Nvidia schlagen. Leider ist meine aktuellste Nvidia GPU eine 4060 in einem Notebook...ohne muxx switch und mit 60Hz Display.
Mal sehen was das ergibt.
 
Baal Netbeck schrieb:
Vollbild hatte ich nicht auf dem Schirm
Bei manchen Spielen soll der Fenstermodus schnell +100 ms und mehr kosten, weil schlampig implentiert und die eingaben nicht direkt am Treiber sondern "über Windows" abgegriffen werden.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Was ist mit dem alten Fcat-Benchmark-Modus bei Nvidia-Grafikkarten.
Also die Farbstreifen am Rand vom Monitor, in dem der Nvidia Treiber jeden Frame mit einem Farbcode marktiert (kann man z.b. über den Afterburner aktivieren). Würde Dir das helfen?
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Da wäre es also gut wenn man den Fenstermodus in verschiedensten Spielen antestet.

Generell ist die Wahl der Spiele ein Thema.
Shooter sind vermutlich am einfachsten, aber ich bin eher kein Shooter Spieler.

Ich muss da auch einfach etwas austesten und vor allem prüfen, wie ich die Reproduzierbarkeit sicherstelle.

Es ist ja keine kontinuierliche Messung wie ein Frametime Verlauf von X Sekunden, wo sich kleine Unterschiede rausmitteln.

Das sind Einzelmessungen, die stark mit den momentanen FPS skalieren.
Kleine Änderungen der Kamera Position könnten schon große Einflüsse haben.

Die Situation im Spiel hat großen Einfluss.
Eine Häuserwand anzugucken ist vermutlich reproduzierbarer, aber die Latenz wird vermutlich auch unrealistisch gut sein.

Einen Platz voller NPCs zu vermessen ist schwieriger wenn da immer wieder mehr/weniger von ihnen herumlaufen.

Zum Glück sind die Messungen an sich sehr schnell gemacht... Da hat man ruckzuck ein dutzend Messungen. Nur mehrere dutzend Messungen per Hand auszuwerten dauert lange.

Könnte ein Grund sein, warum man diese Messungen so selten sieht.
Ergänzung ()

HisN schrieb:
Würde Dir das helfen?
Definitiv. Das muss ich mal ausprobieren.
Da wäre die Auflösung nicht so wichtig und ich kann den ganzen Bildschirm aufnehmen.

Kann man das einfach so aktivieren?
Die Option ist mir noch nie aufgefallen.
 
Zuletzt bearbeitet:
Wir haben hier jede zwei Wochen einen Thread, in dem jemand fragt was die blöden Streifen am Rand sind.
Also wird die Option gefunden und ausgelöst (wenn auch unbewusst^^).

https://www.computerbase.de/forum/threads/mit-msi-afterburner-fps-anzeigen.2098311/post-27478070
https://www.computerbase.de/forum/threads/grafikkartenfehler-beim-spielen.2019312/post-25570391
https://www.computerbase.de/forum/t...eifen-in-3d-anwendungen.2005753/post-25315296
https://www.computerbase.de/forum/t...te-auf-der-linken-seite.1933394/post-23899393
https://www.computerbase.de/forum/threads/kleiner-roter-balken.1848148/post-22158571

1743675690095.png
 
  • Gefällt mir
Reaktionen: Azghul0815 und Baal Netbeck
Haha, die einen finden sie ungewollt und ich übersehen sie. :)
Ergänzung ()

Werde ich wohl morgen Abend austesten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azghul0815
Baal Netbeck schrieb:
wie ich die Reproduzierbarkeit sicherstelle.
Ich hätte viele Ideen. Im Grundstudium haben wir unendlich dieser Laborversuche gemacht.

Ich würde schon mal den Menschen ausschlißen wollen und möglichst viele Daten pro Schuss produzieren. Eine Maus mit internen Script die alle 0,x Sekunden auslöst wäre schon mal etwas. Dann hast du in den 3 Sekunden aufname jede Menge Daten zum Verwerten.
 
SpamBot schrieb:
Eine Maus mit internen Script die alle 0,x Sekunden auslöst wäre schon mal etwas. Dann hast du in den 3 Sekunden aufname jede Menge Daten zum Verwerten.
Danke für den Input, aber das klappt in meinem Fall nicht...bzw. das bekomme ich nicht hin. ;)

Die LED ist an das physische betätigen des Maustasters gebunden. Da hilft es wenig, wenn ein Skript irgendwelche Befehle sendet.

Vermutlich könnte jemand die Maus so umprogrammieren, dass da eine LED aktiviert wird, wenn die Befehle gesendet werden.
Gleichzeitig müsste das Skript auch die Videoaufnahme der Kamera fernsteuern.
Das geht aber über meine Fähigkeiten und meinen Willen hier Entwicklungstechnisch aktiv zu werden.

Auch zu viele Befehle sind im Hinblick auf PC Spiele nicht wirklich realistisch. Eine Schusswaffe wäre schon möglich, aber gerade wenn es um den Start von Animationen oder um Kameradrehung geht, bricht das Konzept zusammen.

Die Aufnahmen zu machen ist eigentlich auch nicht das Problem...rec, click, rec drücken.....sehen ob die animation wieder auf Anfang steht..rec, click, rec drücken usw....da habe ich in 20s 10 Messwerte....oder in 30s.
Das Zeit-Problem liegt eher in der Auswertung und dem Zählen der Frames.
Was helfen mir 1000 Messwerte in wenigen Sekunden, wenn ich 2 Tage zum Auswerten brauche.

Ich muss mal sehen wie die Videos aussehen, wenn sie in einem Videobearbeitungsprogramm stecken.
Und ob ich da durch gesetzte Start- und Endpunkt die Frames zählen lassen kann...oder direkt die ms.
Ergänzung ()

SpamBot schrieb:
Ich hätte viele Ideen.
Die eine hat mich nicht überzeugt, aber ich bin offen für weitere.

Gerne auch Gedanken zur Reproduzierbarkeit der Spielsituationen.

Bei klassischen gaming-benchmarks kenne ich mir sehr gut aus. Da kommen aber andere Effekte/Besonderheiten zum tragen, die sich hier nicht unbedingt übertragen lassen.

Vermutlich ist das einfachste ein Standbild, aber man sieht in immer mehr Spielen, wie die FPS absinken, wenn man sich bewegt und hochgehen, wenn man stillsteht.
Aus der Bewegung heraus zu messen führt aber dazu, dass ich eben nicht mehr sicherstellen kann, dass ich in der genau geichen Position messe. Die FPS gehen mit geänderter Position hoch und runter...das kann ich schlecht gebrauchen.

Am Ende kann man immer einfach mehr Messwerte an ungefär der gleichen Stelle nehmen und der Mittelwert sollte das regeln.

Wenn ich ein Maß für die Schwankung der Latenz angebe(Standardabweichung der Einzelmessung), ist das eventuell auch eine interessante Info.

Eventuell zeigt eine Methode von Syncronisation/FPS Limiter/sonstwas, zwar etwas schlechtere Latenzen, aber dafür mit deutlich weniger Schwankungen?

Aber das muss natürlich trotzdem so reproduzierbar wie möglich sein.
Noch habe ich keine Erfahrungen dazu, aber bei klassischen Benchmarks war es immer wieder so, dass die Messungen in der gleichen Messreihe zwar sehr reproduzierbar ausgesehen haben, aber nach einem Neustart des PCs konnte die nächste Messreihe, in sich genauso geringe Schwankungen aufweisen, aber verglichen mit der anderen Messreihe, war sie leicht verschoben.
Hat wohl unter anderem etwas damit zu tun, wie die Daten im RAM verteilt wurden.
Also mehr Messreihen mit Neustarts dazuwischen, wenn es auf diese Genauigkeit ankommt.
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
V-sync, Freesync, fast sync....sowas hat Battle(non)sense schon vor Jahren ausgiebig getestet, aber eventuell hat sich etwas geändert?
Seine Aussagen zum zwangsweise ansteigenden Lag bei zu hoher GPU Auslastung haben sich als nicht allgemeingültig erwiesen, auch ohne nvidia Reflex bleibt das Verhalten in dem Fall spielabhängig.

Baal Netbeck schrieb:
anke für den Input, aber das klappt in meinem Fall nicht...bzw. das bekomme ich nicht hin. ;)

Die LED ist an das physische betätigen des Maustasters gebunden. Da hilft es wenig, wenn ein Skript irgendwelche Befehle sendet.

Vermutlich könnte jemand die Maus so umprogrammieren, dass da eine LED aktiviert wird, wenn die Befehle gesendet werden.
Gleichzeitig müsste das Skript auch die Videoaufnahme der Kamera fernsteuern.
Das geht aber über meine Fähigkeiten und meinen Willen hier Entwicklungstechnisch aktiv zu werden.
ja, dafür wurde ja nvidia's LDAT eigentlich entwickelt
Baal Netbeck schrieb:
Eventuell kann ich das in einem Videoeditor besser ablesen? Wenn da jemand von euch eine gute Methode kennt, bin ich froh nicht suchen/testen zu müssen.
Für das iphone existiert "is it snappy", das nutze ich sehr gerne, aber man ist natürlich auf die 240fp bzw. 4ms Genauigkeit beschränkt, was mir für meine Messungen aber genügt.
Existiert denn kein Programm, welches einen Framecounter anzeigt, so dass man nicht mehr frame für frame durchgehen muss, sondern nur die Framenummer für input (taste leuchtet auf) und output (aktion auf display sichtbar) vergleichen braucht und die Differenz bildet?
Bei "Is it snappy" markiert man einfach den "input" und "output" Frame und einem wird direkt die Zeit in ms angezeigt.

In Retroarch (eine Art Emulatorenverwaltung mit zstzl. integrierten Funktionen) lässt sich beispielsweise ein Framecounter einblenden.
Baal Netbeck schrieb:
Die 1200 FPS kommen mit einem großen Nachteil...416x144 Pixel für 3 Sekunden. ;)
Auch sind die Aufnahmen zusätzlich recht verrauscht. Tolle Qualitätsvideos wie von den Slow Mo Guys kann man also in der Pfeife rauchen.
Wozu benötigst du 1ms Genauigkeit, lässt sich nicht auf 500fps reduzieren?
Persönlich sehe ich darin mehr Sinn, Schwankungen um wenige ms wird man eh immer verzeichnen und sind in der Auswirkung auch nicht wesentlich.
Die mangelnde Qualität ist zwar unschön, aber letztlich komplett irrelevant.
Hier sieht es aus auch wie Grütze, aber es erfüllt seinen Zweck und man muss ja nicht gleich einem dedizierten Slowmo Channel konkurrenz machen wollen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Suspektan schrieb:
auch ohne nvidia Reflex bleibt das Verhalten in dem Fall spielabhängig.
Ja, nicht jedes Spiel hat eine Drawcall Queue von mehreren Frames. Manche habe auch "ab Werk" nur einen Frame und dann hat das GPU limit keinen Nachteil und Reflex keinen oder nur einen sehr kleinen Vorteil.

Man wird aber keine Latenz im GPU Limit finden, die kürzer ist als im CPU Limit.(gleiches Spiel und Szene)

Mir fallen jetzt nicht mehr die Beispiele ein, da es viele Jahre her ist, dass ich seine Videos geguckt habe.
Aber da waren mir auch ein paar Ungereimtheiten aufgefallen oder Ergebnisse, die ich anders interpretieren würde.

Trotzdem sind seine Videos ein Meilenstein in dem Gebiet und auch wenn LDat das ganze stark vereinfacht haben sollte, sehe ich fast keinen Content dazu, der interessante Messungen macht.
Suspektan schrieb:
ja, dafür wurde ja nvidia's LDAT eigentlich entwickelt
Ja, das vereinfacht es enorm. Aber es hat auch Einschränkungen.
Es ist halt die reine Latenz auf Klicks bezogen. Bewegungen und Inhalt der Frames ist nicht erfasst.
Suspektan schrieb:
Existiert denn kein Programm, welches einen Framecounter anzeigt, so dass man nicht mehr frame für frame durchgehen muss, sondern nur die Framenummer für input (taste leuchtet auf) und output (aktion auf display sichtbar) vergleichen braucht und die Differenz bildet?
Ich kann die Videos in DaVinci laden, dann bei LED und Reaktion je einen Schnitt setzen und das freistellen.
Dann sehe ich auch die Frames.
Ist relativ schnell zu erledigen....aber "relativ" ist trotzdem aufwendig.
Suspektan schrieb:
Wozu benötigst du 1ms Genauigkeit, lässt sich nicht auf 500fps reduzieren?
Die Genauigkeit ist sehr wichtig.
Im Grunde taste ich die Latenz mit einem Rechtecksignal ab.
Sowohl start als auch Endpunkt können 0,4ms zu früh oder zu spät erfasst werden und so habe ich alleine durch die Messung schon bis 0,8ms zufällige Schwankungen.
DIe Latenzen selbst schwanken schon stark genug...da muss nicht noch die Messmethode schwanken.

Die nächste Stufe die die Kamera kann sind 400 FPS..Das wären 2,5 ms Schwankungen.
Da müsste ich locker fünfmal so viele Messungen machen um das im Mittel wieder auszugleichen.

Das gleiche Problem kommt noch hinzu, wenn ich ohne Display Synchronisierung testen werde...in noch heftiger.
 
Baal Netbeck schrieb:
Mir fallen jetzt nicht mehr die Beispiele ein, da es viele Jahre her ist, dass ich seine Videos geguckt habe.
Aber da waren mir auch ein paar Ungereimtheiten aufgefallen oder Ergebnisse, die ich anders interpretieren würde.
Seine Messungen habe ich gar nicht in Frage gestellt, nur die damals abgeleitete Allgemeingültigkeit des Verhaltens.
Siehe dazu
Ergänzung ()

Baal Netbeck schrieb:
DIe Latenzen selbst schwanken schon stark genug...da muss nicht noch die Messmethode schwanken.
Aber die Latenzschwankungen sind im Verhältnis eh deutlich größer als die Schwankungen bedingt durch die geringere optische Abtastung.
Der Frameaufbau erfolgt zeilenweise von oben nach unten und je nach Position des Objekts und Zeitpunkt des Befehlseingangs ergeben sich zwangsweise SChwankungen, wobei diese sich mit zunehmender Framerate (des Inhalts) reduzieren sollten.
Persönlich führe ich nur Messungen bei fixed ~60fps durch, da ich eher Emulatoren älterer Systeme auf ihren Lag in Zusammenspiel mit verschiedenen Einstellungen überprüfe, da steht eine 1-2ms Genauigkeit m.M.n. in keinem sinnvollen Verhältnis zu den eh gegebenen Schwankungen.
(In vielen Fällen erhält man mit emulation einen zusätzlichen Lag von 40-70ms, da sind die Messchwankungen dann unwesentlich, weil die Tendenz mehr als eindeutig ist)
Bei 120fps+ Inhalten machen die Messungenauigkeiten natürlich einen größeren Anteil aus, so dass die Abweichungen durch zu geringe Aufnahmeframerate wiederum zu einem wesentlichen Faktor werden, das habe ich nicht mit bedacht.
 
Zuletzt bearbeitet:
Bei Emulatoren kommt natürlich nochmal eine weitere Unsicherheit dazu.

Sollten die Messungen zu stark schwanken muss man das durch mehr Messungen oder verbesserte Methoden ausgleichen, bis sich etwas Auswertbares ergibt....oder man muss aufgeben.

Mehr Messungen bedeuten mehr Zeit und ob 400 oder 1200 FPS sind die gleiche Zeit pro Messung.

Ich sehe keinen Grund die Abtastung zu verschlechtern und dann mehr Zeitaufwand durch mehr Messungen, für ein besseres Bild einzutauschen... außer ich möchte etwas beobachten, dass die größere Auflösung braucht.

Variable refresh rate sorgt ja schonmal dafür, dass unterhalb der Monitor Hz, grob die gleiche Monitor Latenz anliegt.

Feste Hz sind hingegen eine Unsicherheit.

Dann muss man für die Messung möglichst die gleiche Höhe am Display beobachten.

Wenn es zur Fragestellung passt, ein FPS Limit setzen um die Frametimes zu stabilisieren.

Im Spiel eine passende Szene wählen, die reproduzierbarer ist.
 
Baal Netbeck schrieb:
Variable refresh rate sorgt ja schonmal dafür, dass unterhalb der Monitor Hz, grob die gleiche Monitor Latenz anliegt.

Feste Hz sind hingegen eine Unsicherheit.
ich bezog mich natürlich auf fixe Framerate + Refreshrate, die meisten Konsolenspiele haben damals eh 30 oder ~60fps verwendet bzw. teste ich nur solche Fälle.
Ich vergleiche auch mehr den Lag ggü. dem Original, da sind die Tendenzen so eindeutig und konsistent , dass es die 2ms oder gar 1ms Abtastung gar nicht benötigt.
Ist ein etwas anderer Anwendungsfall
Baal Netbeck schrieb:
Dann muss man für die Messung möglichst die gleiche Höhe am Display beobachten.
Da frühestens im nächsten Frame die Aktion dargestellt werden kann, würde man theoretisch am oberen Bildrand den im Mittel niedrigeren Lag erhalten, für den gesamten Bildaufbau benötigt der Monitor immer die Dauer eines Frames.

Also bei 120fps+120Hz z.B. 4ms (+displaylag) bildmittig, 8ms (+displaylag) unterer Bildrand, 0ms + displaylag oberer Bildrand.

Interessant fand ich auch den Vergleich verschiedener fixer Framerates und Refreshrates in Kombination
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Specials/LDAT-Input-Lag-1357708/

Screenshot (236).png

Screenshot (237).png


ABER wenn man hier die Latenzen von 60Hz mit denen von 240Hz (gleicher Monitor) vergleicht, erhält man ungewöhlich hohe Werte, denn zwischen 60Hz (ca. 16ms je Refresh) und 240Hz (ca. 4ms je Refresh) liegen lediglich 12ms, bedingt durch Schwankungsbandbreite je nach Zeitpunkt des Inputs letztlich etwas mehr, aber 30-40ms Differenz erklären sich damit für mich nicht-
Ich habe daher den Verdacht, dass sich Monitore mit von sich aus hoher Refreshrate nicht unbedingt repräsentativ bzgl. Inputlag bei niedrig eingestellten Refreshrates verhalten.
Ich erhalte beispielsweise auf meinem internen 60Hz oled Notebookdisplay bei mega man 9 (aus der mega man legacy collection 2) ca. 2 Frames (33ms) Verzögerung bis zur Sprunganimation.
60Hz bei 60fps

Irgendwas muss der Monitor da komplett vermasseln, wenn der Displaylag so enom beim Wechsel von 240Hz zu 60Hz ansteigt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Suspektan schrieb:
Irgendwas muss der Monitor da komplett vermasseln, wenn der Displaylag so enom beim Wechsel von 240Hz zu 60Hz ansteigt.
Schau dir Mal Monitor Reviews bei Monitors unboxed an.

Kaum ein lcd Monitor hat einen Overdrive Mode, der für das ganze Hz Spektrum passt.

Man müsste den mode bei unterschiedlichen Hz wechseln.
 
Baal Netbeck schrieb:
Kaum ein lcd Monitor hat einen Overdrive Mode, der für das ganze Hz Spektrum passt
Overdrive soll doch nur die Pixelraktionszeiten von LCD durch schnelleres Anschwingen verkürzen oder verwechsel ich da was?
Solche Latenzunterschiede wären damit eigentlich auch nicht erklärbar, hmm

Wäre vielleicht eine Anregung, in der Hinsicht zu testen
Baal Netbeck schrieb:
Ich habe z.B. einen 144Hz TN Monitor und einen 240Hz IPS Monitor....das TN Panel zeigt in den UFO-Tests weniger Ghosting, obwohl er weniger Hz hat. Wäre interessant, wie sich das auf die Latenz auswirkt
Die pixelraktionszeiten sind für die eigentliche Latenz recht unwesentlich, da der Beginn der Veränderung bereits zählt, und nicht, zu welchem Zeitpunkt die Pixel die gewünschte Zielposition/-farbe angenommen haben.
Anderenfalls müsste der uralt Gameboy mit seinem Ghosting des Grauen ja immens hohe Latenzwerte erreichen, tatsächlich sind es (je nach Spiel) 2 Frames bzw. 33ms insgst.

Passend dazu
 
Suspektan schrieb:
Solche Latenzunterschiede wären damit eigentlich auch nicht erklärbar, hmm
Stimmt eigentlich. Es kommt zu mehr Overshoot bei weniger Hz. aber die Pixel sollten schon gleich schnell reagiern.

Aber da können komische Dinge passieren. Eventuell passt der Monitor irgendwas am Overdrive komisch an und dann ist es langsamer?

Der Gameboy hat vielleicht abseits des Displays sehr kurze Latenzen.

Ich denke schon, dass das Ghosting ein Symptom einer langsamen Pixel response ist und daher die Latenz beeinflussen wird. Ich sehe die Reaktion am Display ja erst, wenn sich etwas verändert hat und da bei LCD die Kristalle ja physisch in Bewegung gebracht werden müssen, gehe ich davon aus, das von der Pixel Reaktion ein großerer Teil der Zeit am Anfang vergeht, wo der Kristall erst losdreht und man die Veränderung noch nicht sieht.

Was für Messungen hast du denn gemacht? Kann man das irgendwo angucken?
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
Ich denke schon, dass das Ghosting ein Symptom einer langsamen Pixel response ist und daher die Latenz beeinflussen wird
Wie gesagt, Latenzmessungen erfassen immer den Beginn der Objektänderung, daher sind im obigen Video trotz sehr unterschiedlicher Pixelschaltzeiten die reinen Inputlagmessungen quasi gleichauf.
DEr Unterschied liegt dann (wie zu sehen) im früheren Erreichen der Zielposition/-farbe der jeweils veränderten Pixel, was sich am fehlenden Ghosting oder Verschmieren durch lange Übergangszeiten bemerkbar macht.

Die "Anschwingphase " der LCD Kristalle geschieht ja nicht zeitversetzt, sondern lediglich träger mit sanfterem Anstieg
DEswegen sind bei Messungen der Pixelreaktionszeiten auch immer die Zielwerte zu berücksichtigen wie z.B. 80% o. 50% Gray.

Auf rtings.com kannst du dir ein beliebiges Modell heraussuchen und die Pixel response times anzeigen lassen inkl. der Verläufe, z.B.
https://i.rtings.com/assets/product...cd-qled/response-time-2-large.jpg?format=auto
Baal Netbeck schrieb:
Was für Messungen hast du denn gemacht? Kann man das irgendwo angucken?
verschiedene, bisher aber nur eine veröffentlicht, weitere werden noch folgen

Ich gehe i.W. so vor, dass ich die Aktion auf die Caps-lock Taste lege, deren integrierte Led bei Tastendruck aufleuchtet (bzw. erlischt), mit den meisten Emulatoren bzw. unter retroarch ist das möglich, PC Spiele erlauben es hingegen meist nicht.
Zudem besitze ich einen BT-Controller mit integrierter Led, welche ebenfalls bei (start)Tastendruck aufleuchtet, um so z.B. den lag von Emulation unter android oder auch BT Controller vs. Tastatur zu ermitteln.

Bei Handhelds habe ich z.T. das Gerät geöffnet und entweder eine LED zwischengeschaltet (was oft nicht so simpel gelingt wie man vermuten mag) oder im Zweifelsfall den Zeigerausschlag eines analogen Multimeters bei Kontaktherstellung als Indikator verwendet. In einem Fall hat das bloße Einfügen einer LED sogar den Lag massiv erhöht, warum auch immer. (anbernic RG35XX +)

Emulatoren haben den entscheidenden Vorteil eines Features, mit welchem sich die Emulation zunächst pausieren und anschließend Frame für Frame durchgehen lässt.
Mit der sogenannten "Frame-Advance" methode lässt sich so der spielinterne Lag bestimmen


Diesen kann ich dann mit dem Gesamtlag vergleichen wie z.B. hier geschehen für Dolphin bzw. wii/gamecube Emulation

Und wer sonst nichts zu tun hat und den Angaben misstraut, kann mit der "." (Punkt)taste in youtube selbst die Frames einzeln durchgehen und abzählen. :D "," (Komma)taste für den Rücklauf


DEr ps2 emulator PCSX2 addiert z.B. ca. vier Frames lag bei 60fps (4x16ms) hinzu, die Messung habe ich aber noch nicht veröffentlicht.

Übrigens:
Das PWM Flimmerns meines Notebook-Oleddisplays lässt hier sehr schön die Abhängigkeit der Latenzschwankung vom Zeitpunkt des Tastendrucks bezogen auf die jeweilige Position im Bildaufbau erkennen.
Dazu einfach die vertikal durchlaufende Linie beachten
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben