News BOE: 500-Hz-Monitore dank schnellerer Metalloxid-TFTs

JoeDoe2018 schrieb:
Die Latenz vom Internet muss dann auch dauerhaft unter 10ms (= 100Hz) sein.
Den Ping kann man nicht wirklich zu der Input-Lag Chain dazurechnen. Der wird je nach Spiel mehr oder weniger serverseitig "ausgeglichen". Daher auch dieses Phänomen, dass man manchmal gekillt wird, obwohl man schon in Deckung war.
JoeDoe2018 schrieb:
Außerdem haben viele Mäuse eine sehr hohe und vor allem stark schwankende Latenz. Auch die Tastatur ist davon betroffen.
Bei Mäusen muss man generell erstmal zwischen zwei verschiedenen Latenzen unterscheiden. Dem Button-Delay und dem Sensor-Delay. Es stimmt, dass der Button-Delay auch bei einigen aktuellen und teuren Gaming Mäusen noch ziemlich hoch ist. Hier ein Test von rtings dazu.
Aber die Maus-Latenz, die für ein direktes Bewegungsgefühl wichtig ist, ist die des Sensors, und die ist im vergleich zum Button-Delay meist deutlich geringer.

Die Frage ist ja aber auch, welche Latenz man sich anschauen möchte. Bei der Zeit, die von der Massenbewegung bis zur Darstellung auf dem Monitor vergeht, muss man den Sensor-Delay natürlich berücksichtigen. Geht es darum, den Gegner möglichst früh um die Ecke kommen zu sehen, spielt die Maus überhaupt gar keine Rolle.
 
Meine Sorge ist bei so hohen Frequenzen weniger die Wahrnehmungsgrenze, sondern viel mehr, was die Grafikkarten daraus machen. Ich habe bei meiner Karte festgestellt, dass sehr hohe FPS zu unangenehmem Spulenfiepen führen. Bei 144Hz mit 141er Framecap (für Gsync) geht es noch, aber bei 165Hz/FPS fand ich es schon zu nervig. Ohne Framecap im Menü von Witcher 3 wirds dann mit 1000 FPS sehr hochfrequent und eklig und ähnlich stelle ich es mir bei 500Hz/FPS vor. Haben die viele RTX3000er/RX6000er das Problem auch noch?
 
Ghosthunt schrieb:
Also langsam wird es Absurd mit den Hz (und Auflösungen über 4k).

Das Menschliche Auge und Gehirn unterliegen natürlichen Grenzen. 90 Hertz kann man noch gut wahrnehmen, danach nimmt die Sensibilität bei den meisten ab. Ob am Ende noch 120 oder 180 Hertz wahrgenommen werden können, sei schlicht nicht bekannt. Spätestens 200 Hertz/Fps fühlten sich jedoch an wie Bewegungen im echten Leben.
Menschliche Gehirne könnten Objekte nur mit 7 bis 13 Bildern pro Sekunde nachverfolgen ("Motion-Tracking"), wie EEGs bewiesen haben.

Falsch, ich selbst merke doch auch einen Unterschied zwischen 120 und 200hz. Und wenn ich das sogar bemerke, dann wird es auch einer bei 500hz bemerken.

Es geht ja nicht nur um die Augen/Gehirn sondern auch um den Inputlag beim drücken der Tasten!!! Das vergessen viele.

Und wieso sollte über 4k absurd sein? 8K ist das Optimum derzeit, vor allem in der bild und videobearbeitung.
 
  • Gefällt mir
Reaktionen: Dot-Rock
Kartellbildung! Jahrelang gefühlt 60 Hz, nun kommt man immer schneller zu immer mehr Drölfeins Hz - darf dann aber besonders tief bei den entsprechenden GPUs zahlen 😝
 
Ayo34 schrieb:
Definitiv ist ein Bild mit 60FPS und 144Hz smoother als 60FPS auf 60Hz! Die Bilder werden einfach gleichmäßiger auf dem Bildschirm wiedergegeben.
Das Gegenteil ist der Fall.
60fps sind auf 60Hz smoother als auf 144Hz. Bei 144Hz hast du Jitter.
 
  • Gefällt mir
Reaktionen: Miuwa
Ich merke zwischen meinem 75hz und meinem 165hz Monitor schon keinen Unterschied. Ausgiebig versucht einen zu finden. Auch der Mauszeiger ruckelt für mich auf beiden.
Denke also kaum das ich 500Hz brauche 😂
 
Ayo34 schrieb:
Definitiv ist ein Bild mit 60FPS und 144Hz smoother als 60FPS auf 60Hz! Die Bilder werden einfach gleichmäßiger auf dem Bildschirm wiedergegeben.
Bei mir andersrum. 60 fps auf 144 Hz fühlt sich wie 30 fps an als 60 fps auf 60Hz. Merkwürdig. Weil man fehlende Frames füllen musste, 60fps auf 60Hz überträgt halt 1:1
 
  • Gefällt mir
Reaktionen: Maxxx800
IXI_HADES_IXI schrieb:
500 Hertz, wtf. Dann könnte vielleicht in so 60 Jahren Cyperpunk plus Raytracing mit 500 FPS rum laufen...:lol:

Ich halte von dem Hertz Wahn gar nichts. Lieber in schnellere QDOLED Technik investieren, die sind von der Reaktionszeit einem LCD überlegen, auch wenn sie die Technik immer und immer wieder versuchen auf zu pimpen. Micro LED wird leider noch dauern...
Sehe ich genauso. Ganz davon abgesehen, dass die Farben und der Kontrast zusätzlich auch noch absoluter Rotz ist bei VA und IPS. Und nein, 2000 Diming-Zonen sind keine Lösung... OLED mit 120 - 240 Hz reicht vollkommen aus. Selbst bei 60Hz gibt es bedeutend weniger Schlieren als bei den meisten "Gamer-Monitoren" da draußen... Selbst wenn die Teile 360Hz hätten.

LG

Micha

PS: Da ich befürchte, dass das Samsung / Alienware QD-Display für mich bedeutend zu teuer wird, spekuliere ich auf den kommenden 42" Philips TV mit (hoffentlich) EX-Panel OLED, 120Hz und Ambilight :-) Kleiner wäre mir aber trotzdem lieber, aber darauf muss man (ärgerlichweise) wohl noch einige Jahre warten...
 
Das spiegelt hier mal wieder den Durschnittsintelekt: “wenn es bei mir nicht sichtbar ist, ist es bei allen anderen natürlich auch so!“
🥳
 
  • Gefällt mir
Reaktionen: mk77er und Dot-Rock
Was bringt es, wenn man so viel Herz hat, wenn die Grafikkarte dann hallo sagt: Spulenfiepen. Und bei der hohen Herzzahl ist dies auf jeden Fall vorhanden. Hauptsache also viele FPS + Kopfschmerzen?
 
  • Gefällt mir
Reaktionen: Maxxx800
Fatal3ty schrieb:
Bei mir andersrum. 60 fps auf 144 Hz fühlt sich wie 30 fps an als 60 fps auf 60Hz. Merkwürdig. Weil man fehlende Frames füllen musste, 60fps auf 60Hz überträgt halt 1:1
Empfinde ich auch so. Hab 75Hz und einen lock auf 75fps. Fühlt sich am besten an.
 
scout1337 schrieb:
Meine Sorge ist bei so hohen Frequenzen weniger die Wahrnehmungsgrenze, sondern viel mehr, was die Grafikkarten daraus machen. Ich habe bei meiner Karte festgestellt, dass sehr hohe FPS zu unangenehmem Spulenfiepen führen. Bei 144Hz mit 141er Framecap (für Gsync) geht es noch, aber bei 165Hz/FPS fand ich es schon zu nervig. Ohne Framecap im Menü von Witcher 3 wirds dann mit 1000 FPS sehr hochfrequent und eklig und ähnlich stelle ich es mir bei 500Hz/FPS vor. Haben die viele RTX3000er/RX6000er das Problem auch noch?
Bist es soweit ist, dass brauchbare 500 Hz Monitore auf dem Markt sind, wird sicher noch etwas Zeit vergehen.
Spulenfiepen ist nochmal ein ganz eigenes (spezielles) Thema.
Du machst dir ja auch keine Sorgen, dass deine jetzigen Reifen bei der Maximalgeschwindigkeit des neues Supersortwagens Probleme bekommen, weil sie aktuell bei deinem Passat ab 200 kmh komische Geräusche machen. :D
 
RAZORLIGHT schrieb:
Was neue Probleme mit sich bringt.
Ich sehe da eher die Micro LEDs als Lösung.

Burn In wäre die einzige Problematik, die mir einfällt. Oder meinst du was anderes?

Potenziellem Burn-In lässt sich ziemlich gut aus dem Weg gehen. Vor allem bieten viele Spiele auch ein dynamisches HUD an, das sich ausblendet, wenn nicht benötigt.

Aber zugegeben, ein Ersatz für nen Monitor sind OLEDs noch nicht. Denn wer den OLED so nutzt, der wird mit ziemlich hoher Wahrscheinlichkeit irgendwann BurnIn sehen. Der Content muss halt variieren und darf nicht statisch sein, dann ists auch kein Problem.
Vorerst muss der LCD daher noch als Hauptmonitor und für statische Inhalte herhalten.

Zumindest im Monitor Bereich würde ich mir aber wegen Micro LED keine Hoffnungen machen. Vor allem wer jetzt 1440p auf 27 zoll nutzt, der wird in einigen Jahren wohl mindestens auf 32 Zoll mit 4K wechseln wollen. Also nochmal höhere Pixeldichte. Und genau das ist aktuell das große Problem von Micro LED. Die LEDs weiter zu verkleinern ist sehr schwierig. Gut möglich, dass sich daher eher die OLEDs durchsetzen und die Haltbarkeit weiter verbessert wird. Denn dann läufts halt wie bei SSDs. Können theoretisch abnutzen bzw. kaputt geschrieben werden, aber irgendwann hats keine praktische Relevanz mehr, selbst wenn mans drauf anlegt.
 
Zuletzt bearbeitet:
PTS schrieb:
Und wieso sollte über 4k absurd sein? 8K ist das Optimum derzeit, vor allem in der bild und videobearbeitung.
Es ist nicht absurd- Es kommt nur auf das Verhältnis von Bildfläche, Auflösung und Abstand an.
Also die Pixel pro grad im Sichtfeld.

Und dort wird es im durchschnittlich heimischen Wohnzimmer irgendwann verdammt eng, da die entsprechenden Diagonalen unterzubringen.
Technisch mehr, ist menschlich sensorisch eben ab einem gewissen Punkt nicht mehr besser.
 
Fatal3ty schrieb:
Bei mir andersrum. 60 fps auf 144 Hz fühlt sich wie 30 fps an als 60 fps auf 60Hz. Merkwürdig. Weil man fehlende Frames füllen musste, 60fps auf 60Hz überträgt halt 1:1

60fps auf 60hz überträgt eben normal nicht 1:1. Auch werden keine fehlenden Frames ersetzt. Es wird einfach solange ein Bild angezeigt bis ein neues Bild vorhanden ist. Der einzige Unterschied ist, dass das neue Bild schneller angezeigt wird auf 144hz, weil sich der Monitor eben häufiger aktualisiert.

Anders ist es wenn du Techniken wie Gsync oder VSync benutzt, aber dann erhöht sich eben der Inputlag. Für kompetitive EgoShooter kannst du das vergessen.
 
autopilot schrieb:
Das spiegelt hier mal wieder den Durschnittsintelekt: “wenn es bei mir nicht sichtbar ist, ist es bei allen anderen natürlich auch so!“
🥳
Oder auch umgekehrt:"Alle anderen haben einen Sehapparat, bei dem es ab 100Hz einen deutlich sinkenden Grenzertrag gibt", jedoch bin ich die Ausnahme, die bei 500Hz noch Unterschiede aumachen kann.

Wie bereits ausgeführt. Nach dem Motte meine Stereoanlage hat 1000 Watt. Muss also lauter sein als die mit 100 Watt. Auf ähnlicher undifferenzierter Argumentationsbasis bewegen wir uns hier.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maxxx800
.Sentinel. schrieb:
Es ist nicht absurd- Es kommt nur auf das Verhältnis von Bildfläche, Auflösung und Abstand an.
Also die Pixel pro grad im Sichtfeld.

Und dort wird es im durchschnittlich heimischen Wohnzimmer irgendwann verdammt eng, da die entsprechenden Diagonalen unterzubringen.
Technisch mehr ist menschlich sensorisch eben ab einem gewissen Punkt nicht mehr besser.

Wenn ich ein Video aufnehme in 8k und dann in fullhd bearbeite und mir dann aus dem 8k bild EINE stelle raus suchen kann ist das ja wohl besser für den workflow als nur eine bildfläche in fullhd zu haben, du darfst nicht nur von privaten normalen haushalten ausgehen.
 
PTS schrieb:
Wenn ich ein Video aufnehme in 8k und dann in fullhd bearbeite und mir dann aus dem 8k bild EINE stelle raus suchen kann ist das ja wohl besser für den workflow als nur eine bildfläche in fullhd zu haben, du darfst nicht nur von privaten normalen haushalten ausgehen.
Wir reden hier von Wiedergabegeräten. Wie in der Fernsehtechnik auch ist mir schon bewusst, dass "oversampling" gerade in der Produktion und Verarbeitung diverse Vorteile mit sich bringt.

Deswegen fand ich die BBC Links von lamda auch recht interessant, wo aber überwiegend die Aufnahme- und Produktionsseite beleuchtet wird.
 
USB-Kabeljau schrieb:
Das Gegenteil ist der Fall.
60fps sind auf 60Hz smoother als auf 144Hz. Bei 144Hz hast du Jitter.
Das kann so pauschal nicht gesagt werden. Bei eingeschaltetem VSync stimmt das, dann hast du aber ggf eine deutlich spürbare Latenz weil der Rechner mit dem fertigen Frame wartet bis der Monitor bereit zur Darstellung ist. Ohne VSync hat jeder frame eine andere Berechnungszeit (siehe jeder Spieletest hier auf CB/Abschnitt Frame times), diese 60 ungleichmäßigen Bilder passen aber dann nicht mehr exakt auf die 60 gleichmäßigen Hz des Monitors. Das fühlt sich stotternd an (bzw zeigt durch tearing zerrissene Bilder). Bei 144 Hz fühlen sich die 60 ungleichmäßigen Bilder weniger stotternd an, aber noch nicht wirklich perfekt. Wenn dann allerdings Gsync oder Freesync dazu kommt, siehst du jedes Bild sobald es fertig ist ohne stottern und ohne Delay. Das fühlt sich dann sehr viel flüssiger an. Dafür braucht es aber dann mehr als 60 Hz, sonst funktioniert das nicht.

Eindrucksvolle Demo zum Unterschied Vsync/kein Vsync/Gsync für Besitzer von Nvidia Karten und kompatiblem Monitor:
https://www.nvidia.com.tr/coolstuff/demos#!/g-sync
 
Ayo34 schrieb:
60fps auf 60hz überträgt eben normal nicht 1:1. Auch werden keine fehlenden Frames ersetzt. Es wird einfach solange ein Bild angezeigt bis ein neues Bild vorhanden ist. Der einzige Unterschied ist, dass das neue Bild schneller angezeigt wird auf 144hz, weil sich der Monitor eben häufiger aktualisiert.

Anders ist es wenn du Techniken wie Gsync oder VSync benutzt, aber dann erhöht sich eben der Inputlag. Für kompetitive EgoShooter kannst du das vergessen.

Wenn du 60 FPS auf nem 144 Hz Display anzeigst und dabei Vsync aktiv ist, dann ruckelt das!
Ohne Vsync ruckelts immernoch (tendenziell etwas weniger) und du hast zusätzlich Tearing. Beides ist Müll.

Willst du 60 FPS (oder jede andere konstant anliegende Framerate) sauber darstellen, hast du zwei Möglichkeiten:
1. Die Displayfrequenz auf 60 Hz (bzw. entsprechend der gewünschten Framerate) oder ein Vielfaches davon einstellen und Vsync aktivieren.
2. Adaptive Sync nutzen, was das gleiche macht wie 1, nur dynamisch bei jeder Framerate.


Und nein, Adaptive Sync erhöht nicht den Inputlag!
Es ist nur so, dass die Grafikkarte gezwungen wird, im Rahmen der Möglichkeiten des Displays zu arbeiten.

Wenn dein Display 120 Hz hat, dann darf die Grafikkarte eben nur im kürzesten Fall eine Frametime von 8,33 ms haben.
Wenn man jedoch nahe der 120 FPS ist, dann wird die Grafikkarte auch mal ein paar Frames produzieren können, die schneller als 8,33 ms sind. Mit Adaptive Sync und Framelimiter werden solche Frames eben ausgebremst, weil dein Limit bei 8,33 ms pro Frame ist.

Willst du dieses Limit ignorieren, wirst du einen kürzeren Inputlag messen können, allerdings lässt du dann auch Tearing zu und agierst außerhalb der Möglichkeiten des Displays.

Dass man ohne Adaptive Sync unter gewissen Umständen nen geringeren Inputlag messen kann ist also eine rein logische Konsequenz der niedrigeren Frametimes bzw. höheren FPS die man zulässt und die das Display nicht mehr darstellen kann, das ist kein Nachteil von Adaptive Sync.
Adaptive Sync als Technik an Sich erhöht den Inputlag nicht (anders als Vsync). Umgekehrt kannst du den Lag natürlich reduzieren, wenn du z.B. ein 120 Hz Display mit 240 FPS befeuerst und Vsync aus machst. Du reduzierst damit die Systemlatenz, ignorierst jedoch, was der Monitor macht.
 
Zuletzt bearbeitet:
Zurück
Oben