Was hat es mit der schraegen Zahl 144 Hz auf sich?

voon

Commander
Registriert
Aug. 2006
Beiträge
2.145
Wenn ich in Zukunft einen 3440x1440 Monitor mit Gsync moechte ... brauch ich 144 Hz? 100 klingen ja schon nach genug ... aber hat es mit den 144 irgendwas auf sich, technisch? Wegen der 1440p? Zufall? Laeuft da irgendwas runder? Sauberer?

Kenn mich da ned aus.
 
Das Bild auf dem Monitor wird dann 144x in der Sekunde neu aufgebaut.

Davon profitiert der Desktopbetrieb als auch das Spielerlebnis.

Der Bildaufbau wirkt viel flüssiger, jede Drehung ohne Ecken und Kanten, einfach nur smooth !

Mfg David
 
Danke dir ... das mehr Hz was bringen, ist mir schon klar ... ich frage mich, was es mit der krummen zahl 144 auf sich hat. 256? 128? 192? Okay .. aber 144? Fragte mich ob das irgendwie wichtig sei bei 1440p (So wie damals beim FSB bus krumme Ramteiler ned ideal waren oder sonstwas).

Oder ist alles egal, hoeher ist einfach besser und 144 war einfach das maximum wieso auch immer?
 
Zuletzt bearbeitet:
Wahrscheinlich weil es ein Vielfaches von 24 ist, der Bildrate von Filmen. 6x24=144

Allerdings ist das nur eine ästhetische Erklärung. Technisch spielt es keine Rolle, von was man ausgeht. Man könnte genauso von den 25 Bildern unseres Fernsehen und unserer Serien ausgehen oder den 30 in den USA.
Auch wahrscheinlich: der Unterschied zwischen 120Hz und 140Hz wirkt zu gering, also legt man eine Schippe drauf.
 
Seit fast 100 Jahren werden Filme in 24p gedreht. Projektoren laufen aber mit 48 oder 72 Hz. 144 ist einfach ebenfalls ein Vielfaches von 24.
 
Wobei man argumentieren könnte, dass 120 Hz besser sind als 144 Hz, da 120 Hz nicht nur ebenfalls ein Vielfaches von 24 ist, sondern auch von 30 und 60.
Das wird dann relevant wenn man im Internet Videos schaut, die sind nämlich sehr häufig 30 oder 60 FPS, gerade auch im Bereich Livestreaming von Games.
Oder auch wenn man ältere/technisch schlechte Spiele spielt die 60 FPS fest einprogrammiert haben.
 
Oder man nimmt G-/Free-Sync, da ist es dann egal was das viel fache von was ist ;)
 
Marco01_809 schrieb:
Wobei man argumentieren könnte, dass 120 Hz besser sind als 144 Hz, da 120 Hz nicht nur ebenfalls ein Vielfaches von 24 ist, sondern auch von 30 und 60.
UND Nvidia Karten takten bei 144Hz nicht in den niedrigsten Stromsparmodus. Ich lasse meinen 144Hz Monitor auch nur auf 120 laufen.
 
Interessante Antworten, danke. Dann waers ja nicht mal so falsch, zu einem der neueren 100 Hz 21:9 mit Gsync zu greifen.
 
UND Nvidia Karten takten bei 144Hz nicht in den niedrigsten Stromsparmodus. Ich lasse meinen 144Hz Monitor auch nur auf 120 laufen.
Das sollte doch wohl schon vor X Monaten mit einem Treiber Update behoben worden sein.
 
Eigentlich sind 120 Hz die bessere Wahl, aber wegen 3D braucht man ja pro Auge 24 und 120 / 48 ist kein ganzzahliges Verhältnis.
 
@nyix, da hast du glaub ich was missverstanden. Ab 24 Bildern pro Sekunde nimmt das Auge eine Bewegung als flüssig wahr. Das heißt aber nicht, dass mehr oder ein anderes Verhältnis zu 24 das Auge stören würden. 24 ist schlicht das minimum, aber keine Konstante die nur bei ihrem vielfachem funktioniert
 
Nichts Missverstanden. Kinofilme sind 24p. Für 3D brauchts dann 48 Bilder. Und nun kommt der Monitor entweder 48 Hz, 96 Hz oder eben 144 Hz. Kann man auch googlen. Für Spieler und normalen Content reichen auch 120 aus. 144 Hz ist hauptsächlich wegen 3D. Zum Beispiel 3D Spiele. Dann hat jedes Auge 3x 24 Bilder.

Edit: 3D auf 120 Hz geht eben nicht komplett auf. Da werden Bilder übersprungen und das kann man sogar schon bei 60 Hz sehen.
 
Zuletzt bearbeitet:
Ach du redest von 3D-Filmen? Die Sache ist doch mittlerweile eh wieder tot, oder?
 
Naja weil 4K der große Hype ist und es Probleme mit der Datenübertragung für 3D in 4K gibt, ist es so gut wie tot bisher. Aber als die 144Hz entwickelt worden, da war der 3D-Zug voll in Fahrt.

Edit: Nvidia hatte auch sone Brille dafür im Angebot. Das aber schon ewig her.
 
powerfx schrieb:
Seit fast 100 Jahren werden Filme in 24p gedreht. Projektoren laufen aber mit 48 oder 72 Hz. 144 ist einfach ebenfalls ein Vielfaches von 24.

und warum laufen die "normalen" bildschirme dann seit äonen mit 60Hz? das ist kein vielfaches von 24
 
Der 3D-Zug ist aber schon bei FullHD nicht aus dem Vorort-Bahnhof rausgekommen.
 
Mickey Cohen schrieb:
und warum laufen die "normalen" bildschirme dann seit äonen mit 60Hz? das ist kein vielfaches von 24

Weil das US-Stromnetz mit 60 Hz läuft. Deshalb hatten die alten Röhren 60 Hz und das hat man auf die LCDs dann übernommen.
 
Mickey Cohen schrieb:
und warum laufen die "normalen" bildschirme dann seit äonen mit 60Hz? das ist kein vielfaches von 24
60 Hz ist viel älter, gab's schon bei CGA. Damals wurde es vermutlich wegen der Netzfrequenz so gewählt. Aber da das Bild erst ab ca. 70-75 Hz als weitgehend flimmerfrei wirkt, war es vorteilhaft die Frequenz entsprechend zu erhöhen.
 
Zurück
Oben