Ihr wisst aber schon, dass die Bildwiederholungsrate am Monitor (Hz) rein gar nichts mit der Bildrate in Spielen (FPS) zu tun hat?
Ersteres sagt, wie oft der Monitor das Bild neu aufbaut. Letzteres sagt, wo oft das Bild neu berechnet wird. Das sind zwei unterschiedliche Dinge. Ich verrate nicht zu viel, wenn ich sage, dass man ein Spiel mit 40 FPS und 60 Hz spielen kann. Nur wird dann das neuberechnete Bild nicht synchron zum Bildrefresh des Monitors gesendet. Hier kommt dann Vsync ins Spiel, was die FPS auf ein Vielfaches der Hz reduziert (bei 60 Hz = 60, 30, 15 ... FPS). Deshalb kann Vsync zu Rucklern führen, wenn 60 oder 30 FPS dauerhaft nicht erreicht werden können.
Bei TFTs ist das Thema Bildwiederholungsrate wieder ein ganz anderes. Ihr könnt ja mal in eurem TFT nach Phosphor-Abklingzeiten suchen!

Bei Röhrenmonitoren bringt ein Kathodenstrahl das Phosphor Zeile für Zeile zum Leuchten. Sobald der Kathodenstrahl nicht mehr anliegt, erlischt die Leuchtkaft. Also muss wieder neu beschossen werden. Wie oft der Kathodenstrahl das Phosphor beschießt, sagt die Hz-Zahl. Bei 60 Hz tut er das in größeren Abständen als bspw. bei 120 Hz. In der Zeit verdunkelt das Bild und das Auge nimmt das als Flimmern war (besonders gut aus den Augenwinkeln wahr zu nehmen).
Bei TFTs muss kein Phosphor erleuchtet werden. Da gibt es Kristalle, die unter bestimmter Spannung ihre Helligkeit verändern (RGB-Kristalle für jeden Farbpixel; deshalb braucht man bei TFTs auch eine native Auflösung). Diese Kristall behalten aber ihre Helligkeit bei, es kommt nicht zu einem Absinken und zu keinem Flimmern. Die 60 Hz bei TFTs heißt dann nur noch, dass 60x in der Sekunde ein neues Bild von der Grafikkarte an den Bildschirm gesendet wird - nur, um die Darstellung zu aktualisieren, nicht mehr um das Bild neu aufzubauen. Man könnte auch den TFT mit 1 Hz betreiben, aber dann würden die Eingaben doch sehr verzögert erscheinen. Bei 120 Hz oder mehr wird einfach das Bild schneller/mit geringeren Abständen aktualisiert.
Im Grunde ist diese Zahl aber bei TFTs und LCDs ziemlich beliebig gewählt. Sie basiert auf der Spannung des Stromnetzes, an das früher die Wandler gekoppelt waren (deshalb PAL mit 50 Bildern/s = 50 Hz Spannung und NTSC mit 30 B/s = 60 Hz). Mittlerweile ist es egal, aber Fernsehnorm und damit in die Computertechnik übernommen. BluRay und moderne LCDs bieten darüberhinaus auch 24p, also 24 B/s = 24 Hz an. Trotzdem würde das niemand als Flimmern bezeichnen.
Bezüglich Wahrnehmung:
Der Mittelwert, bei dem das Auge eine Bewegung als flüssig wahr nimmt, wurde nach Tests auf ~25 B/s festgelegt. Mittelwert heißt: Für manche sind schon <20 B/s flüssig, für andere erst >30 B/s. Beeinflusst man aber selber das Geschehen, dann sieht das ganz wieder komplett anders aus. Dann werden 25 B/s (=FPS) noch als ruckelnd wahr genommen. Je schneller die Bewegung und je trainierter die Sensibilität desto mehr liegen die Werte auseinander. Jeder kennt das: Ein Schleich-Shooter oder RPG lässt sich noch einwandfrei mit 30-40 FPS spielen, während ein schneller Multiplayer-Shooter erst mit ~60 FPS vermeintlich flüssig läuft, und Pro-Gamer noch sensibler sind.
Und
DAS ist IMO Allgemeinbildung und braucht auch nicht mit 30 Jahre alten Quellen belegt zu werden. Jeder weiß, dass sich die Wahrnehmung der Informationsgesellschaft in den letzten Jahrzehnten drastisch geändert hat. Die Technik ist eine ganz andere. Also worüber diskutiert ihr hier eigentlich und was hat das vor allem mit der Topic zu tun?
