Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nur besteht eine Frequenz aus etwas, das periodisch auftritt, willkürlich zusammengewürfelte Einzelteile ergeben keine Frequenz, auch wenn man ihre Anzahl durch die Gesamtzeit teilen und dann die durchschnittliche Dauer eines Einzelteils und die darauf aufbauende Frequenz erhalten kann.
Bei folgendem Beispiel von "Auftreten der Ereignisse mit einer Frequenz von 1 Hz" zu sprechen willst du wohl nicht als korrekt bezeichnen, oder?
(Ereignis Nr. | Zeit in Sekunden)
1|0; 2|2; 3|2,5; 4|3; 5|3,3; 6|5; 7|6; 8|8; 9|8,5, 10|10
(10 Ereignisse / 10 Sekunden = 1/s, trotzdem treten die Ereignisse in keiner bestimmten Frequenz auf, sondern in verschiedenen Abständen)
Die Einheit passt zwar, vom Sinn her kann man hier aber nicht von "Frequenz" sprechen.
bei eingestellten 120hz werden immer 120 bilder pro sekunde an den bildschirm geschickt (desktop sowie auch im spiel), wenn der pc allerdings nicht schnell genug für ein 3d spiel ist werden einige bilder einfach mehrfach zum monitor gesendet.
Der durschnittliche Mensch sieht ca 45+ Hertz (physikalische Einheit - Aktionen pro Sekunde). 25% der getesteten konnten allerdings auch 60 oder mehr Bilder pro Sekunde sehen, wobei man sagen muss dass trainierte Kampffliegerpiloten bis 255 Bilder pro Sekunde sehen konnten.
Trotzdem ist es völlig ausreichend in den meisten Situationen 60 Hertz zu haben wegen dem so genannten Motion blur Effekt (welcher auch das Sterben der Augen im Kinofilm verhindert xD).
FPS ist das eine.
Nähmilch von der GraKa (in dem Sinne) gesendete Rahmen/(Frames) pro Sekunde an den Monitor.
Hz ist das andere.
Nähmilch vom Monitor zur Verfügung gestellte Ressourcen (im Sinne eines Pendels) maximaler Möglichkeit der sich wiederholenden Bilder in Frequenz. -(bis die GraKa den nächsten Rahmen gesendet hat? bzw. Bildwiederholungen um GraKa Sendelücken zu füllen?)-*
Ergo:
-Produziert meine GraKa z.B. in X-beliebigem Spiel relative (konstante bzw.)/durchschnittlich 100FPS und ich stelle mir einen 60Hz Monitor hin, dann verschenke ich konstant Ressourcen der GraKa weil der Monitor diese gar nicht verarbeiten kann.
(Da werden also potentiell zur Verfügung gestellte Daten einfach verschluckt - wobei der Monitor dadurch Schluckauf bekommt - und dieser Schluckauf wird aktuell versucht mit V/G-Sync. zu Therapieren)
-Produziert meine GraKa z.B. in X-beliebigem Spiel relative (konstante bzw.)/durchschnittlich 100FPS und ich stelle mir einen 144Hz Monitor hin, dann verschenke ich konstant Ressourcen des Monitors da die GraKa diese gar nicht beliefern kann.
(Bekommt der Monitor in dieser Konstellation auch Schluckauf? Falls nicht könnte man sich für mehr Hz entscheiden und auf V/G-Sync. verzichten?) . . .
Abschließend:
120Hz Monitore findet man so kaum noch.
60Hz ist Minimum und in dem Sinne der Standard für Office/Home Normalnutzung.
Geht es um Enthusiastisches Gaming:
144 ist der hohe Standard aktuell. ABER es gibt bereits etliche mit mehr als 200Hz.
Und was fange ich nun mit diesen ganzen 75Hz Monitoren an von z.B. "LG 29UM69G-B" 2560 x 1080 @ 75 Hz
z.B. Optimal für GraKa's welche in den allermeisten gängigen Titeln entsprechende FPS liefern?
...oder ist 75Hz ähnlich quatsch in Sachen Gaming wie die 120Hz Monitore und in wenigen Jahren sehen wir von beiden kaum noch was?