News AOC-Monitore: 1.000 Hz im Dual-Mode angeblich für 2026 geplant

Mimir schrieb:
Judderfrei bist du auch mit G-Sync/Freesync oder wenn bei aktivem Vsync die Monitorfrequenz exakt ein ganzzahliges vielfaches der Bildfrequenz des zugespielten Mediums beträgt.

Problematisch ist es aber, wenn du zum Beispiel Dokumentationen anschaust, die schön in 50Hz ausgestrahlt werden, aber Teile davon mit 60Hz, 24p usw. zugespielt und nicht angepasst wurden. Gibt Massig davon auf Youtube.
 
Während ich am TV mit 4K mit 120-144 Hz und vorallem mit HDR bis 1000 Nits genießen kann (z.B. Bravia 9), gibt's bei Monitoren nur mehr Hz, ranzige Farben und "Marketing HDR" (HDR400...) was kaum besser als SDR ist. Hätten solche TVs eine PC-Taugliche Pixelstruktur und < 40" würde ich echt lieber nen TV nutzen...

Aber was will man machen, die re-branden ja alle nur die gefühlt 3 selben Panel von Samsung, LG, BOE und AUO.
 
Mimir schrieb:
Das ist falsch. Dein ganzer Text basiert auf der Annahme, dass der Monitor bei 60 Hz immer 16,6 ms braucht, nachdem die GPU das Bild an den Monitor geschickt hat. Das ist aber falsch, weil sowohl mit klassischem Vsync als auch G-sync/Freesync der Monitor synchron zum taktgebenden Bildsignal läuft. Die Latenz zwischen Bildausgabe und darstellung am Monitor ist minimal und hat nichts mit der Bildfrequenz zu tun.

Von höheren Hz profitierst du nur „immer“, wenn du ohne G-Sync/Freesync spielst, wobei das aber ebenfalls wieder andere Gründe hat.
Du verstehst da etwas falsch.

Die Scanout-Zeit von 16,67 ms bei 60 Hz bzw. 2,08 ms bei 480 Hz beschreibt den Zeitraum, in dem das Bild zeilenweise vom Framebuffer der GPU über das Kabel zum Monitor übertragen und auf dem Panel dargestellt wird.


Heutige Monitore verfügen in der Regel nicht über einen eigenen Framebuffer, sondern zeigen die Bilddaten direkt beim Eintreffen an. Das bedeutet: Der Scanout beginnt unmittelbar mit der Datenübertragung – es gibt keine zusätzliche Pufferung oder Verzögerung durch den Monitor selbst.

Wer zeigt das Bild bei 50 FPS (20 ms Frametime) zuerst?

Der 480 Hz VRR-Monitor zeigt das Bild früher an.


Grund: Der Scanout dauert nur ~2,08 ms statt ~16.7 ms.
Sobald ein neues Frame von der GPU kommt, beginnt der 480 Hz-Monitor sofort mit dem Bildaufbau – und ist damit schneller fertig.

Was passiert in den "Pausen"?

Wenn der Monitor mit 50 FPS gefüttert wird, aber mehr Hz könnte, entstehen Leerlaufzeiten:

480 Hz VRR-Monitor:
Zeigt das Bild an, scannt es in ~2,08 ms aus.
Wartet dann ~18 ms auf das nächste Frame. (20 ms da 50 FPS)
In dieser Zeit wird das Bild gehalten (Sample-and-Hold), es sei denn, der Monitor nutzt Strobing oder BFI (Black Frame Insertion).

60 Hz VRR-Monitor:
Zeigt das Bild in ~16.7 ms an.
Wartet dann ~3.3 ms auf das nächste Frame. (20 ms da 50 FPS)
Ebenfalls Sample-and-Hold, aber mit längerer Bildanzeigezeit.

Fazit

Der 480 Hz VRR-Monitor
hat bei 50 FPS keine Vorteile in Bildwiederholrate (50 FPS also 20 ms Frametime),
aber:
Geringere Scanout-Zeit → geringere Latenz
Mehr "Leerlauf" zwischen Frames, was bei BFI/Strobing nützlich sein kann

Der 60 Hz VRR-Monitor ist "ausgelasteter", aber zeigt das Bild später an.

Wenn du also auf minimale Latenz aus bist, ist der 480 Hz-Monitor im Vorteil – selbst bei niedrigen FPS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RedPanda05, HolySkillet, fullnewb und eine weitere Person
Wenn ein „normaler“ Mensch einen optischen Reiz in ca. 0,2s mit einer Fingerbewegung quittieren kann, dann machen mehr wie 200 Hz doch selbst in kompetitiven Games überhaupt keinen Sinn mehr, oder übersehe ich irgendwas bzw. habe ich in meiner Rechnung einen Fehler?
Ich würde ja noch sagen, dass 360Hz in der Wahrnehmung (nicht in der Reaktion) noch etwas bringen (könnten), aber 500Hz, geschweige denn 1000Hz sind doch irgendwie drüber!
 
  • Gefällt mir
Reaktionen: PS-ShootY
Krik schrieb:
Kommen nach GPUs mit Spulenfiepen jetzt Monitore mit Spulenfiepen?
Die gibt es (leider) schon. Mein Dell OLED hat's auch. Ich selbst kann das aber nur wahrnehmen wenn ich mein Ohr nah an die Lüftungsschlitze halte. Andere sind da empfindlicher.
 
Look what they need to mimic a fraction of our power

computer-monitore-beamer-lg-995ft-.jpg
 
  • Gefällt mir
Reaktionen: herrStreusalz
@janeeisklar ich spür schon bei meinem 60 Hz Monitor (der kein Gaming Monitor) ist, kaum Latenz... Liegt evtl. daran, dass ich keine sonderlich schnellen Spiele spiele :)
 
  • Gefällt mir
Reaktionen: janeeisklar
Ich finde dieses 'immer mehr, immer schneller' inzwischen auch ein bisschen schwierig, wenn es keinerlei gesundheitliche Auswirkungen mehr hat, vor allem, wenn es die Grenzen dessen überschreitet, was die restliche Hardware überhaupt schaffen kann.
 
Aduasen schrieb:
Ich finde dieses 'immer mehr, immer schneller' inzwischen auch ein bisschen schwierig, wenn es keinerlei gesundheitliche Auswirkungen mehr hat,
Why? Das is doch gut? Oder solls einem schaden?
Aduasen schrieb:
vor allem, wenn es die Grenzen dessen überschreitet, was die restliche Hardware überhaupt schaffen kann.
Naja, das is ja nur ne frage der zeit. Irgendwas is immer die Grenze. Obs Software is die grenzen vorgibt oder Hardware. Irgendwas gibt immer ne grenze vor bis diese eben erreicht oder durchbrochen wird.

Gerade im PC Bereich und dessen hardware gibt es doch schon immer dieses Phänomen. Siehe PCIe Bandbreiten usw.

Irgendwer wird es schon nutzen können.
 
Kasjo schrieb:
Irgendwer wird es schon nutzen können.

Da hast Du schon recht.
Ich mache mir halt in bisschen Sorgen bzgl der endlichen Ressourcen auf diesem Planteten und interessanterweise macht die Menschheit bislang noch keinerlei Anstalten, Rohstoffe im erdnahen Umfeld abzubauen.
Mir könnte es eigentlich egal sein, weil ich soo lange nicht mehr leben werde aber ich denke die nachfolgenden Generationen werden sich noch umgucken.
 
  • Gefällt mir
Reaktionen: K3ks
Averomoe schrieb:
Leute, nochmal. Man profitiert IMMER von mehr Hz, selbst wenn die FPS nicht mithalten können. Warum, kann man schnell googlen.
Und anschließend über Screen Tearing jammern.
 
  • Gefällt mir
Reaktionen: PS-ShootY und Aduasen
MrHugelberg schrieb:
Endlich)kann man Anno flüssig spielen !
Mit 1.000 Hertz? Wirklich? Das ist immer noch viel zu langsam! Ich benötige zwingend 192 kHz Bildwiederholrate (damit es passend zur 192 kHz Audiowiedergabe kompatibel ist)! :evillol:
 
  • Gefällt mir
Reaktionen: ds.d3nni
Bloß gut, dass die Frequenz von sichtbarem Licht etwa 385 bis 789 THz beträgt.
 
  • Gefällt mir
Reaktionen: PS-ShootY
@HageBen Neulich im Forum: "Mein Monitorbild ist rot statt blau. Irgendwas kostet ein paar THz. Was soll ich tun?"
 
  • Gefällt mir
Reaktionen: Fika
Weiß nicht, warum sich bei den Superhochfreqenten Bildschirme so viele auf die Latenz versteifen. Die Frequenz sagt doch wenig über die tatsächliche Latenz aus. Ja, sie kann dadurch besser sein, muss es aber nicht.
Die niedrigere mögliche Latenz ist dabei doch nur ein netter Nebeneffekt. Der Hauptzweck ist das besser Bewegtbild.
 
Ich würde mich über Folgendes freuen: 37-42" 16:9 Monitor mit 5k 165-240Hz (+ optionalen Dualmode). Gerne auch 4-6K, wobei ich mehr Auflösung bevorzugen würde. Es wäre toll, wenn sich jemand mal größeren Monitoren widmen würde. Samsung hat erst kürzlich ein (leider kein OLED) 37" Display raus gebracht.

LG

Micha
 
Ok, gitbs dann auch endlich mal IPS-Black mit 4k und 120Hz bei 27"? :D
 
ev4x schrieb:
Nicht wenn man Gsync oder Freesync nutzt.
Was bei 1000Hz eh überflüssig ist.

Bei mir ist das schon ab 240Hz, weil es so minimal nur noch Tearing gibt..
 
  • Gefällt mir
Reaktionen: PS-ShootY
=dantE= schrieb:
Wenn ein „normaler“ Mensch einen optischen Reiz in ca. 0,2s mit einer Fingerbewegung quittieren kann, dann machen mehr wie 200 Hz doch selbst in kompetitiven Games überhaupt keinen Sinn mehr, oder übersehe ich irgendwas bzw. habe ich in meiner Rechnung einen Fehler?
Ich würde ja noch sagen, dass 360Hz in der Wahrnehmung (nicht in der Reaktion) noch etwas bringen (könnten), aber 500Hz, geschweige denn 1000Hz sind doch irgendwie drüber!
Der Fehler liegt in der Annahme zu glauben, es ginge nur darum, dass man X Tausend Bilder auch als solche wahrnehmen könnte.
Es geht viel mehr darum, dass die Monitore ein Schlierenfreies Bild darstellen können müssen, welches die Augen überhaupt verarbeiten können.
Rein vom Reiz her merke ich auch überhaupt keinen Unterschied zwischen 240 und jetzt 480Hz, die Maus fühlt sich etwas leichter an, alles fühlt sich im Bezug auf Wahrnehmung etwas langsamer an aber der wichtigste Faktor ist, dass das Bild scharf bleibt bei Effekten wie Screenshake durch Recoil oder aber die visuelle Bestätigung bei einem Flickshot.

Selbst DotA profitiert von 480Hz beim scrollen über die Map.
Wo andere Monitore (alle LCDs) vollständig versagen und keinerlei Mehrwert bieten, so bleibt auch bei schnellen Bewegungen auf einem OLED das Bild um den Faktor 100 ca deutlich klarer und kann vom Auge verarbeitet werden.

MPRT ist hierbei in Zusammenhang mit GtG die relevante Maßeinheit.
GtG alleinstehend kannst direkt das Produkt als Abfall betiteln ohne es genutzt zu haben, denn das will der Hersteller nicht, dass du weißt was das ist.

Deswegen nehmen die Leute auch keine Unterschiede war zwischen 120/144/160/240Hz weils alles aufgrund der gammeligen LCD Technik keine brauchbaren MPRT Werte erzielt.
Die Augen können diese Matschepampe die 10 Kilometer Schlieren zieht nicht verarbeiten.

Nur OLED ist Stand aktuell dem alten Röhrenmonitor oder Plasmafernseher ebenbürtig.
LCD war es nie und wird es niemals sein.

Zumal wir leben auch gerade in einer vermurksten Spielebranche.
Es gibt so gut wie keine Spiele mehr, wo der Ton eine ordentliche Qualität besitzt.
Das heißt die Augen machen absolut alles in Bezug auf Reaktionszeit und die Augen sind das langsamste Sinnesorgan.

Das war früher auch anders, zu Windows 98/2000/XP konntest noch deine Ohren nutzen und hast auf nicht sichtbare aber dafür hörbare Tonquellen gezielt und lagst damit goldrichtig.

Geht Heute auch noch aber dafür musste Windows deinstallieren, eine Soundkarte einstecken und Linux nutzen.
Dann natürlich beten, der Entwickler hat das ordentlich gemacht und nicht seine Animationen an den laggenden Windows Sound angepasst, sondern nach ordentlichen Standarts.

Counter Strike hatte früher schon Console Settings wie snd_mixahead damit konnte man die Audiolatenz so weit runterdrücken, wie es das eigene Gerät erlaubt hat, sprich 2-3-4 Millisekunden.
Das gibts Heute in CS2 auch nicht mehr, darfst mit 100+ MS Latenz spielen, der Ton ist nahezu nutzlos geworden.
 
Zuletzt bearbeitet:
Zurück
Oben