Okay, vielleicht hilft hier ein bisschen Physik.
Ein einziges, digitales Bild ist in Pixeln unterteilt. Jedes Pixel hat einen entsprechenden Farbwert, wodurch dann der Eindruck eines Bildes entsteht. Damit daraus der Eindruck eines bewegten Bildes entsteht, muss dieses Bild regelmäßig aktualisiert werden, so wie ein Daumenkino. Soviel ist denke ich klar.
Beim Zocken spielen dabei zwei Komponenten eine Rolle: Der Monitor und die Grafikkarte. Der Monitor gibt die Bilder aus, die die Grafikkarte produziert. Das sollte denke ich auch klar sein.
Fangen wir mit der Grafikkarte an. Damit der Computer auf deine Eingaben reagieren kann, muss die Grafikkarte in Echtzeit entsprechend aufwändige Berechnungen machen, um daraus eine Reihe von Bildern zu erzeugen. Das Maß, wieviele Bilder eine Grafikkarte dabei pro Sekunde erzeugt, wird in FPS (frames per second) gemessen. [1]
Nun muss die Grafikkarte diese Bilder an den Monitor weitergeben, damit der diese darstellen kann. Hier wird es nun etwas kompliziert. A priori hat ein Monitor, ähnlich wie ein Fernseher eine feste Bildwiederholfrequenz. Diese wird in Hertz (Hz) gemessen und gibt an, wieviele Bilder der Monitor pro Sekunde erzeugt, zunächst einmal ganz unabhängig vom Input. Hierbei gibt es allerdings ein Problem: Läuft der Monitor mit einer Frequenz von sagen wir 60Hz und erzeugt die Grafikkarte zum Beispiel 55 FPS (oder auch 65 FPS), laufen Grafikkarte und Monitor asynchron und es entsteht sog. Tearing. Als ich mit dem Zocken anfing, konnte man das Tearing nur mit VSync beheben. Dadurch wird die FPS der Grafikkarte auf den gewünschten Wert gedrosselt. Durch "neue" Technologien wie GSync und FreeSync sind nun auch dynamische Bildwiederholfrequenzen möglich. Vereinfacht gesagt: die Grafikkarte kommuniziert dem Monitor "hier kommen gerade 55 Bilder pro Sekunde", und der Monitor passt seine Bildwiederholfrequenz entsprechend an. Wie man sich denken kann, muss dieses Feature natürlich von dem Monitor unterstützt werden.
Am Schluss sollte noch erwähnt werden, dass die Leistung der Grafikkarte stets ein gewisses "Polster" benötigt um auch bei Framedrops, also Einbrüchen der Framerate, stabile FPS liefern zu können. Das heißt, willst du bei (mind.) 75Hz zocken, muss deine Grafikkarte im Schnitt schon mehr leisten können als 75 FPS, um nicht unter die 75er Marke zu fallen.
Ich hoffe, das hilft. Entsprechend der Benchmarks hier auf Computerbase und dem Datenblatt deines (gewünschten) Monitors solltest du nun die restlichen Informationen miteinander verknüpfen können.
[1]: im Gegensatz zur Frametime, die angibt, wie lange die Grafikkarte zum Rendern eines Bildes benötigt. Aber das ist ein anderes Kapitel...