Könnte der Input-Lag von Notebooks technisch bedingt geringer als mit externem Monitor ausfallen?

Suspektan

Commander
Registriert
März 2021
Beiträge
2.753
Weiß nicht, ob der Bereich passend für den Thread ist, ich denke aber schon.
In diesem Video
wurde ab 9:56 die ldat Messung durchgeführt und ergab einen Inputlag von ca. 20ms, während beispielsweise mit dem lg oled etwa 40ms gemessen wurden.
Screenshot_20220823-180357.jpg

Auch die Liste von cb https://www.computerbase.de/2022-08/corsair-xeneon-32uhd144-gaming-monitor-test/ weist min. ca. 40ms für das Gesamtsystem mit externem Monitor aus, allerdings kommt leider noch kein LDAT zum Einsatz.
Nur durch das 240hz Panel lassen sich die 20ms weniger auch nicht erklären, denn selbst wenn man den InputLag des oled tvs idealisiert wegdächte, wäre man eher bei ca. 30ms Gesamtlatenz und auch das 240hz amoled display wird nicht nur 0-1ms Lag ausmachen.
Könnte es sein, dass Notebooks durch die interne Anbindung bedingt tatsächlich im Vorteil ggü. Desktop PCs mit extern angeschlossenem Monitor sein können und wenn ja, warum?
 
Kommt eben drauf an was der Monitor (Bildschirm) selbst für einen InputLag (DiplayLag) hat.
Das kann man nicht wirklich voneinander trennen: InputLag und DisplayLag.
Übrigens spürt man ja auch einen geringen InputLag,
ist das Feeling hier direkt, ohne spürbare Verzögerungen ist's doch gut.
Gib nicht zu viel auf Messungen im Internet, bzw vergleiche Tests auch mt anderen.
 
Kürzere Signalwege sind das eine, direkte Ansteuerung das andere. TVs und Monitore haben zusätzliche "Signalbremsen" wie Bildprozessoren [welche Bilder Skalieren, Farben, Kontraste usw bearbeiten inkl Pufferspeicher und meist auch eigenem Betriebssystem | Steuersoftware] was Laptopbikdschirme in der Regel nicht haben und meist werden auch keine spezifischen Protokolle wie Hdmi, DP genutzt, was auch Zeit kostet. Es kommt auf die Hersteller an wie die Displays angebunden werden. Die meisten Laptopdisplays haben nur einen EPD DriverBoard welches ein direktes digitales Signal von der GPU bekommt, ohne bremsenden "Schnickschnack".
 
  • Gefällt mir
Reaktionen: Suspektan
Das ist natürlich eine rein technische Frage, über die Praxisrelevanz kann man da sicher streiten.

Auf den Displaylag bin ich ja eingegangen, selbst wenn man sich den kompletten inputlag (somit inkl. Displaylag) des externen Monitors/ tvs wegdenkt, würde es nicht die 20ms weniger Gesamtlatenz erklären.

Dennoch muss das interne Notebookdisplay ja iwie an die gpu angebunden sein, offenbar ist da die hdmi Verbindung im Nachteil.
Hätte aber nicht vermutet, dass es immerhin so viel ausmacht, aber ok.

Iwann sieht man dann die wahren Profis nur noch mit 360hz oled Notebooks competetiv spielen?
 
BlubbsDE schrieb:
Das ist der größere Übeltäter. TVs sind keine Monitore und werden es nie sein. Es hat schon seinen Grund, warum (gute als Gamingtaugllich vermarktete) TVs in Größe X deutlich günstiger sind, als Monitore.
Der Inputlag der lg oled tvs im Gamingmode liegt je nach Modell/ anliegender Framerate heute bei ca. 5-12 ms und wenn man sich die verlinkte cb Monitorliste ansieht, fällt die Gesamtlatenz dort mit min. 40ms ähnlich der des lg woleds aus.
Nun ist das noch ein Betatest ohne Ldat, so dass die wirklich verlässlichen Ergebnisse noch abzuwarten sind, aber schon ein Hinweis.
 
Also die Leitunglänge daheim ist egal.
Elektrische Signale bewegen sich mit Lichtgeschwindigkeit = ca. 300000000m/s
Heißt, wenn die Laptop GPU 1 Meter Leitungslänge bis zum Laptopmonitor hat, brauch das Signal für diesen Meter 3,33ns.
Wenn ein TV 10 Meter vom PC weg steht, bräuchte das Signal für diesen Weg 33,3ns.

Und nur mal so damit mans sieht 3,33ns = 0,0000033ms
Ich hoffe hab mich bei den vielen Nullen nicht vertippt.
 
Ist schwierig zu vergleichen, weil gar nicht so viele LDAT tests verfügbar sind und jeder eine andere Szene + anliegende fps wählt.
Hab auf pcgh noch ein paar ldat Messungen gefunden, aber dort werden immer die max. Fps verwendet, die besten Monitore erreichen dann wohl ca. 20ms Gesamtlatenz.
Das notebook.wurde mit 60fps von hdtvtest getestet und kommt ebenfalls auf 20ms, also insgst. schon ein sehr guter Wert wie mir scheint.
 
BlubbsDE schrieb:
Das ist der größere Übeltäter. TVs sind keine Monitore und werden es nie sein. Es hat schon seinen Grund, warum (gute als Gamingtaugllich vermarktete) TVs in Größe X deutlich günstiger sind, als Monitore.
Naja, das ist aber längst überholt. Für mich wird es nie wieder sowas wie einen "reinen" Monitor geben außerhalb von Office. Mittlerweile schlagen vernünftige TVs jeden Monitor bei Movie und Gaming, Blickwinkel usw. und ist, neben den extra Features die geboten werden auch meist noch günstiger. Und, es gibt keinen einzigen " LCD Monitor" der gegen einen Oled ne chance hat, weder bei Blickwinkeln, Schaltgeschwindigkeiten oder HDR | Vision Fähigkeiten. Auch wenn mittlerweile TVtechnik abgespeckt als Monitor verkauft wird.
Ein Oled mit 120hz spielt sich besser als nen 240hz LCD Gamingpannel und ist in Sachen Bewegtbild immer noch besser als ein 360hz Pannel, wobei LCDs mit so hohen hz gefakt sind, denn physikalisch kann LCD [Flüssigkristall und eigentlich eine Standbildtechnologie] aufgrund der Trägheit nicht schalten. Da hilft Overdrive auch nicht mehr weiter genauso wenig wie BFI [Black Frame Insertion] und auch nicht wie schnell die Signalverarbeitung ist, da schon länger die LCD Technik zu lahm ist um entsprechend schnell das Bild vollständig aufzubauen. Deswegen "schmieren" LCDs auch so stark, weil sie bei bewegtbildern nicht schnell genug schalten, Overdrive zwingt durch Überstromung die Kristalle zu schnelleren, aber übersteuereten bewegen, was aber unkontrollierter wird und zudem schalten die Kristalle nicht mehr komplett [offen zu geschlossen und ungedeht] womit ebenfalls Unschärfe und Farbungenauigkeit entseht, was man wiederum durch Black Frame Insertion oder auch ausschalten der Hintergrundbeleuchtung kaschiert.

Nebenbei, da es um Latenzen [nicht Schaltzeiten] geht: ich sitze praktisch fast jeden Tag an den verschiedensten Geräten und ja, Latenzen sind für mich spührbar, allerdings ist das für aktuelle Gaminggeräte locker seit den letzten 5 Jahren überhaupt kein Thema mehr da alle Geräte mmn schnell genug sind und die Latenzen nur noch Messtechnisch erfasst werden können. Auch weiß ich das sich viele im Kopf etwas einbilden und je nach Tagesform manchmal eine Trägheit einbilden.

Was die "Tests" angeht so sind diese für mich, solange keine Angaben über Firmware und Warmlaufzeiten gemacht wurden nichts wert, da zB ein Warmgelaufener oder zu kalter LCD noch viel träger ist als unter optimalen (Labor) Bedingungen, und wie warm Pufferspeicher sowie Bildprozessor ist spielt auch eine entscheidende Rolle, besonders in Bereichen von paar ms.
 
Zuletzt bearbeitet:
Zurück
Oben