News Nvidia Reflex: 360-Hz-Monitore kommen mit Latenzmessung

Ja z.B. wenn der ganze Monitor schwarz ist und dann weiß wird da könnte es schon zu besseren Zeiten kommen.

Ich habe festgestellt dass die Reaktionszeiten auf dem PC mit Maus bei mir 140ms niedriger liegen als beim Smartphone. Vielleicht liegt es daran dass die Bewegung des Fingers entfällt, son Klick ist ja minimal.
 
Wenn ich einen alten PC habe der aufgrund des alters Input-Lags verursacht, bringt mir der schnellste Monitor nichts mehr.

Die Information der Maus geht ja von der Hardware über die Grafikkarte in den Monitor.
Natürlich ist die Maus und der Laser + die Platine auch nochmal ein wichtiger Faktor.

Überall wird es so dargestellt, als ob der Monitor für die Lags zuständig wäre.

Neue Marketing-Strategie um die Verkäufe der Monitore zu pushen.

Erst waren es die Millisekunden, dann die Herz, jetzt die Latenz.
 
Warum sollte alte PC Hardware Input Lag verursachen. Das entsteht wenn dann erst bei der Bildverarbeitung
im Monitor. Je aufwendiger desto langsamer, darum haben TV's bei zugeschalteter Zwischenbildberechnung
mal gerne 100ms Verzögerung. Bis 50ms ist es relativ gut spielbar aber man merkt bzw. sieht es auf jeden Fall.
 
Das mit der Latenzmessung ist schon eine super Sache. Endlich kann man auch mal verifizieren, ob die Optimierungen, die man so vornimmt auch tatsächlich Auswirkungen haben.
Ich hoffe das funktioniert grundsätzlich mit jedem Gsync Monitor und nicht nur mit neueren Modellen.
 
Marcel55 schrieb:
Monitore für Übermenschen. Kein normaler Mensch hat die Fähigkeit in einer Zeit unter 150-200ms überhaupt auf irgendwas zu reagieren.

Gehörst du auch zu denen die sagen, dass das menschliche Auge nicht mehr als 24 Bilder pro Sekunde wahrnehmen kann?
So pauschal kann man das nämlich nicht sagen! Das sind verschiedene Themenbereiche die unterschiedlich betrachtet werden müssen.

Es macht auch einen sehr großen Unterschied ein Spiel mit bspw. 150 ms oder 30 ms zu spielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: noxon
CptCupCake schrieb:
So pauschal kann man das nämlich nicht sagen! Das sind verschiedene Themenbereiche die unterschiedlich betrachtet werden müssen.
Ganz genau. Wenn er meint eine Updaterate von 150 ms würden ausreichen, dann kann er Spiele ja mal mit 6 fps spielen.
Das mag die Geschwindigkeit sein mit der er reagieren kann, aber das ist sicherlich nicht die Geschwindigkeit mit der er Eindrücke wahrnimmt. Da wette ich, dass er sogar ein 1 ms lang anhaltendes aufblitzen bemerken würde, was 1000 Hz entsprechen würde.

Und genau darum geht es ja hier.
Als Gesamtverzögerung hätte er dann nur 151 ms Reaktionsverzögerung anstatt im worst case 300 ms, wie beim 6 fps Game.
 
Das Tool soll bisherige Methoden mit High-Speed-Kameras und Kosten von mehreren Tausend US-Dollar ersetzen können.

Mir schwebt da auch schon länger etwas vor, was ich bei Gelegenheit mal in die Tat umsetzen werde.

Zutaten: Fototransistor, Mikrofon (um mir den Umbau der Maus zu sparen), Stereo-Soundkarte, Audacity.
 
Wieso wird das hier so gehyped und kein bisschen hinterfragt? Nvidia misst hier nur die frame latency. Dann misst man einfach die polling rate am USB port, die für den test anscheinend nicht mal auf 1000Hz eingestellt wurde. Sowieso fraglich, denn ein glatter Wert der latenz von 2ms ist quasi unmöglich zu erreichen, da muss man schon ein paar dutzend Screenshots anfertigen. Die polling rate variiert viel zu stark, gerade bei leichten Bewegungen.
Das ist einfach nur ein overlay das die frame times anzeigt und ein bisschen addiert.
Die wichtigsten Dinge fehlen doch, inputlag test des monitors. Hier wäre Nvidia besser dran gelegen eine zertifizierte Messmethode für die Monitorhersteller verpflichtend zu machen und zertifikate für den inputlag anzubieten.
 
TL;DR: Hz-Rate ist nur die halbe Miete. Einiges mehr ist für ein perfektes Bild zu berücksichtigen und da verhält sich jeder Zocker -Monitor ein wenig anders bzgl. overshoot und undershoot, will man ein scharfes Bild als holy grail anstreben.

An die 24-Bilder-Fraktion. Ja, 24 würden in einem Spiel ausreichen, wenn man sich in Form einer Schildkröte durch die Landschaft bewegt und dabei sich nur genauso schnell umschauen kann. Dann würden die frames wohl eben so gerade für ein flüssiges Erlebnis ausreichen. Aber wehe, es folgt ein schneller Kameraschwenk oder Gott bewahre, ein Flick-Shot! Dann ist es aus mit der flüssigen Illusion von 24 fps. Schon mal gewundert warum in Filmen Kameraschwenks das Bild deutlich verschwimmen lassen? Je mehr Hz, desto besser, kann man, soweit ich das in reviews verstanden habe, auch nicht pauschal sagen. Ausschlaggebend ist hierbei, ob die GPU den Monitor auch mit genügend fps füttert. In Monitor-Reviews sieht man, dass Ghosting/Blurring durch Overshoot bzw. Undershoot sich unterschiedlich im Verhältnis der Hz-Rate zu den fps verhält. Wenn die GPU deutlich weniger fps an den Monitor ausgibt, als dieser die Bilder aktualisiert (Hz), dann kann sich das negativ für ein scharfes Bild bei Schwenks auswirken. Da kann es schon helfen, den Monitor von 240 auf 144 bzw. von 144 auf 120 Hz runterzustellen.

Wenn man nicht anfällig auf Tearing reagiert und einem der Stromverbrauch nicht juckt, dann bestenfalls fps ohne Ende, über die Hz-Anzahl hinweg, siehe CS:GO und Konsorten (Valorant, etc.). Möchte man eine perfekt abgestimmte Bildfolge, so nutzt man adaptive sync (freesync/g-sync) und kappt optimalerweise die fps im spiel (wenn es diese option gibt), so 2 frames (ich will mal safe gehen) unter der Grenze des Bereichs der variablen Hz-Rate (freesync range). Dann gibts kein Tearing.

Aber bei 120Hz mit blur reduction (strobing) und gekappten 240 fps in CS:GO ist mir das Tearing nur aufgefallen, wenn ich auch darauf explizit geschaut habe. Der Tearing-Effekt macht sich mit mehr Hz und fps weniger bemerkbar.

Einige Pros nutzen womöglich auch kein adaptive sync, weil die meinen, der würde einen input lag hinzufügen. Und den wollen die ja so gering wie möglich halten. Sollte aber nicht so drastisch sein, max. 5-7 ms, die dazukommen, hab ich die Werte richtig im Kopf...

Und ich finds suboptimal wenn ein Zocker -Monitor mit einer krassen Hz-Rate vom Marketing beworben wird, die response time aber mit der Hz-Rate nicht nachkommt und es somit zur Schlierenbildung bei schnellen Bewegungen kommt.

Dazu einfach mal diese Rechnung anwenden: 1000/Hz = ms response time, die das panel unterbieten sollte im optimalen Fall. Wenn man also in einem Test liest, das panel hat bei 144 Hz eine response time von mehr als 6,9 ms, dann hat das negative Auswirkungen für ein scharfes Bild.

Und auch aufpassen bei Aussagen, wie krass schnell ein panel so ist...., ja, aber oft auch nur in Verbindung mit einem sehr aggressiven Overdrive-Setting, wodurch man mit Überschwingern leben muss (negativ für eine neutrale Abstimmung des Bildes, ob nur Farben oder auch die korrekte Ausleuchtung davon betroffen ist, kann ich nicht sagen. Müsste mich da weiter einlesen...) Bei der Wahl eines Monitors ist halt Vieles zu beachten, wenn man auf speed und Bildqualität viel Wert legt...
 
Zuletzt bearbeitet:
interessant, allerdings nur bedingt, ich habe bereits mit ultra low latency (vsync aus, freesync aus, FPS begrenzen, low latency auf ultra) sehr gute erfahrungen gemacht in zb. apex legends, mir reicht das schon völlig und ist bereits wie tag und nacht im vergleich zu ohne ultra low latency. das ist defintiv spürbar, wenn richtig eingestellt.
 
  • Gefällt mir
Reaktionen: Tenchi Muyo
JMP $FCE2 schrieb:
Mir schwebt da auch schon länger etwas vor, was ich bei Gelegenheit mal in die Tat umsetzen werde.
Zutaten: Fototransistor, Mikrofon (um mir den Umbau der Maus zu sparen), Stereo-Soundkarte, Audacity.
Hä?
Was willst du mit dem Mikrofon? Click Geräusche aufnehmen?
Wenn du schon einen Fototransistor hast der via Microcontroller angesteuer wird. Dann nimm einen mit USB interface der sich gleich als HID ausgeben kann und MouseClick macht.
Dann hast du die ganze Auswertung aufm MC.
 
Haldi schrieb:
Wenn du schon einen Fototransistor hast der via Microcontroller angesteuer wird. Dann nimm einen mit USB interface der sich gleich als HID ausgeben kann und MouseClick macht.

Welcher µC simuliert eine Maus mit 1000 Hz Pollingrate ? Alles viel zu umständlich.

Der Fototransistor nimmt Helligkeitswechsel des Monitors auf, und amplitudenmoduliert damit einen 10 kHz-Oszillator, was dann die Soundkarte aufnimmt. Das Mikrofon nimmt das Mausklicken auf.

Dann einfach nur den Zeitversatz in Audacity ablesen.
 
Entsteht durch die Hardware-Kette nicht schon eine minimale Latenz (also, alles Hardware, die nach dem Monitor kommt), die man in die Rechnung miteinbeziehen müsste? Aber da müssten die Hersteller Angaben dazu machen...
 

Hier das Review von Hardwareunboxed zum Monitor.
 
Fliqpy schrieb:
Allerdings wird es trotzdem darauf hinauslaufen, das die ganzen ESL Pros mit solchen Dingern bestückt werden und dann das Marketing wieder kommt und sagt, das es jeder braucht um perfekt spielen zu können.
Rein technisch ist die Aussage, dass man das brauchen würde, um "perfekt" spielen zu können ja nicht falsch - aber wer kein Geld damit verdient muss auch nicht technisch "perfekt" (beste Vorraussetzungen) spielen können, es muss nur schnell genug sein, damit es sich angenehm und nicht eingeschränkt anfühlt. Dafür ist ein 144 Hz Monitor bei den meisten ausreichend.

0ssi schrieb:
wobei die meisten 240Hz Monitore wohl nur eine Blur Reduction bis 144Hz haben (bis auf LG 27GK750F-B).
Wo hast du die Information her?

noxon schrieb:
Ich hoffe das funktioniert grundsätzlich mit jedem Gsync Monitor und nicht nur mit neueren Modellen.
Steht doch schon in der News, das es nur bei neuen Modellen geht - und da auch nur bei ausgesuchten Modellen.
 
Don Sanchez schrieb:
Wo hast du die Information her?
Reviews, meist Prad oder TFTCentral, steht jetzt manchmal aber auch bei Geizhals (Unschärfereduktion).
Hier wurde damals erwähnt, dass es beim LG erstmalig auch mit 240Hz geht aber leider kaum beachtet.
 
Haldi schrieb:
Und ich behaupte immernoch da gibt es bessere Tests, wo man auf wesentlich tiefere Zeiten kommt, als diese rot grün Ampel Tests.
was solls denn besseres geben?
es ist doch total latte was da eingeblendet wird, es geht rein um DEINE/MEINE Reaktion.
und wenn die 200 oder 300ms ist, dann ist das halt so.
man macht solche Tests am besten "ganz normal" und nicht auf Ritalin mit 10mm bildschirmabstand.
wenn man nämlich möglichst die Highscore drücken will, dann bescheißt man sich am ende nur selbst.
 
Die normale Reaktionszeit ist ja bei vielen vergleichbar. Nimm einfach einmal an, jeder hat die gleiche Reaktionszeit, dann ist der Unterschied, bei dem ein Programm entscheidet, wer den Treffer gelandet hat, der Spieler, der als erstes den Knopf drückte. Und hier kommt dann die Latenz des Systems ins Spiel, wer weniger hat gewinnt. Ob das jetzt für Otte den Normalverbraucher relevant ist, muss jeder selber entscheiden.
 
Zu 99,9% wird die Reaktionszeit dieses Monitors im Vergleich zu 240 Hz keinen Untschied machen. Beispiel, du reagierst mit 130 ms, dein Gegner mit 133 ms. = 360 hz nutzlos, 240 hz machen Sinn Die Verzögerung wird halt nur um 1,4 ms besser. Der Anwendungsbereich hierfür liegt klar bei E-Sports und nichts anderem. Aber ja , um wirklich das MAXIMUM herauszuholen braucht jeder von den Pros so einen Monitor. Der Unterschied ist eben da, auch wenn er nicht spürbar ist und das kann dir das Spiel kosten, bei einem 144hz/240hz Monitor.
 
Zurück
Oben