Sind fps und hz das gleiche?

L

LeeJack

Gast
Hi.
Wie stehen fps und hz eigentlich zueinander? Bei Monitoren höre ich immer nur von hertz, bei Grafikkarten und so nur von fps. Ist es das gleiche? Und stimmt es dann, dass es keinen Sinn ergibt,(übertrieben) eine RTX 3090 für einen 60 hz Monitor zu benutzen, weil es dann sowieso nur 60 hz sind?
 
FPS ist die Anzahl der Bilder die die Grafikkarte berechnet, Hz die Anzahl der Bilder die auf dem Monitor dargestellt werden.

Wie man dann eine 3090 nutzt ist jedem selbst überlassen, für FullHD macht sie wenig Sinn, für 60FPS aber schon, bei 4K oder darüber kann es bei maximalen Einstellungen selbst damit eng werden.
 
  • Gefällt mir
Reaktionen: Ichthys
Fps < Hz: Bilder werden vom Monitor mehrfach hintereinander dargestellt weil die Graka zu langsam ist.
Hz < Fps: Manche Bilder werden nicht dargestellt weil die Graka zu schnell ist oder ein Teil des Bildes stammt von einem Frame und der andere schon vom nächsten.
 
  • Gefällt mir
Reaktionen: Ichthys
Die Hertzzahl eines Monitors gibt an, wie oft er pro Sekunde seinen Bildschirminhalt aktualisiert. Das macht er unabhängig von der angeschlossenen Graphiklösung – ob billigste iGPU oder Brachialmonster mit hohem dreistelligen Preis.

Die FPS geben an, wieviele Frames/Einzelbilder eine GPU pro Sekunde an den Monitor schickt. Ist die höher als die Hertzzahl des Monitors, wird sozusagen Leistung verschwendet, weil der Monitor nur seine fixe Zahl an Aktualisierungen pro Sekunde durchlaufen kann. Mit den zusätzlichen kann er nichts anfangen.

Potente GPUs können aus einem 60-Hz-Monitor zwar keinen 144- oder 240-Hz-Monitor machen, dafür aber hochauflösende Texturen, rechenintensive Kantenglättungsverfahren und Nettigkeiten wie Raytracing ermöglichen, ohne mit den FPS unter die Hz-Zahl des Monitors zu fallen, was bei einer schwächeren GPU auftreten würde.
 
  • Gefällt mir
Reaktionen: AxelFoley, cvzone, Ichthys und 2 andere
Chapeau! Endlich mal eine Neueinsteiger-Frage, welche nicht herablassend oder mit LMGTFY beantwortet wird!
Eine leider nicht mehr so häufig anzufindende Variante, wie solch' ein Thread ausgehen kann.
 
  • Gefällt mir
Reaktionen: Magl, minimii, c[A]rm[A] und 2 andere
Vielen Dank, jetzt weiß ich Bescheid. Ich habe eine GTX 1050 ti. Würde die mit mind. 75fps einen 75 hz Monitor meistern, der die Auflösung WQHD hat oder 2560x1080?
 
Ich habe Deine Frage 1:1 bei Google eingegeben und habe direkt eine Antwort bekommen,also dafür hätte es keinen extra Thread hier benötigt...
 
Das hängt ganz stark vom Spiel ab. Das Verhältnis "Alter des Spiels" und "Wahrscheinlichkeit, dass das klappt" stehen reziprok zu einander. Je älter, desto wahrscheinlicher und je neuer, desto unwahrscheinlicher.
Sogenannte "AAA"-Spiele werden nicht in dem Tempo laufen.
 
Das kommt auf das Spiel an, grafisch anfordernde Spiele in hoher Qualität eher nicht, CSGO auf jeden Fall, für die meisten Spiele gibt es dazu “Benchmarks”. Auch hier auf dieser Webseite gibt es im Bereich Tests sehr viele ;)
 
LeeJack schrieb:
Würde die mit mind. 75fps einen 75 hz Monitor meistern, der die Auflösung WQHD hat oder 2560x1080?

Das kommt auf das Spiel und den Detailgrad an. In Metro 2033 ist das nicht das gleiche wie in Far Cry 2. Für die meisten Spiele findest du Benchmarks auf Seiten wie CB. Hier mal einer für Crysis Remastered. Dort werden gewöhnlich drei, vier typische Auflösungen mit ein paar unterschiedlichen Detailstufen und drölfzig verschiedenen Karten getestet. Um welches Spiel geht’s dir denn?
 
pcblizzard schrieb:
Ich habe Deine Frage 1:1 bei Google eingegeben und habe direkt eine Antwort bekommen,also dafür hätte es keinen extra Thread hier benötigt...
Sicher, Aber das will auch erst "gelernt" werden. 😉
 
LeeJack schrieb:
[...] Ich habe eine GTX 1050 ti. Würde die mit mind. 75fps einen 75 hz Monitor meistern, der die Auflösung WQHD hat oder 2560x1080?
Naja, Cyberpunk, Metro und co. auf Ultra wird schwierig...

@Ichthys Klar aber "ich" habe die Fragestellung doch schon im Kopf, nutzt man da nicht erst einmal Google und hat ggf. in 30 Sekunden seine Antwort, statt 10 Minuten hier auf eine Antwort zu warten?!
 
  • Gefällt mir
Reaktionen: Ichthys
@pcblizzard Für uns ja. Aber ich nehme Mal an, dass wir schon etwas länger unterwegs sind.
 
  • Gefällt mir
Reaktionen: pcblizzard
LeeJack schrieb:

Das ist schon mal der richtige Benchmark. Deine Ergebnisse werden irgendwo zwischen denen von 1920 × 1080 und 2560 × 1440 liegen.

LeeJack schrieb:
Aber wenn ich dann nur einen 75 hz Monitor habe, stimmt es dann, dass der Monitor nur 75 fps und nicht schneller wiedergeben kann?

Ja. Wieviele Frames die GPU an den Monitor schickt, hat nichts mit seinen Hz zu tun. Die sind durch seine Hardware fest vorgegeben.
 
Okay, vielleicht hilft hier ein bisschen Physik.

Ein einziges, digitales Bild ist in Pixeln unterteilt. Jedes Pixel hat einen entsprechenden Farbwert, wodurch dann der Eindruck eines Bildes entsteht. Damit daraus der Eindruck eines bewegten Bildes entsteht, muss dieses Bild regelmäßig aktualisiert werden, so wie ein Daumenkino. Soviel ist denke ich klar.

Beim Zocken spielen dabei zwei Komponenten eine Rolle: Der Monitor und die Grafikkarte. Der Monitor gibt die Bilder aus, die die Grafikkarte produziert. Das sollte denke ich auch klar sein.

Fangen wir mit der Grafikkarte an. Damit der Computer auf deine Eingaben reagieren kann, muss die Grafikkarte in Echtzeit entsprechend aufwändige Berechnungen machen, um daraus eine Reihe von Bildern zu erzeugen. Das Maß, wieviele Bilder eine Grafikkarte dabei pro Sekunde erzeugt, wird in FPS (frames per second) gemessen. [1]

Nun muss die Grafikkarte diese Bilder an den Monitor weitergeben, damit der diese darstellen kann. Hier wird es nun etwas kompliziert. A priori hat ein Monitor, ähnlich wie ein Fernseher eine feste Bildwiederholfrequenz. Diese wird in Hertz (Hz) gemessen und gibt an, wieviele Bilder der Monitor pro Sekunde erzeugt, zunächst einmal ganz unabhängig vom Input. Hierbei gibt es allerdings ein Problem: Läuft der Monitor mit einer Frequenz von sagen wir 60Hz und erzeugt die Grafikkarte zum Beispiel 55 FPS (oder auch 65 FPS), laufen Grafikkarte und Monitor asynchron und es entsteht sog. Tearing. Als ich mit dem Zocken anfing, konnte man das Tearing nur mit VSync beheben. Dadurch wird die FPS der Grafikkarte auf den gewünschten Wert gedrosselt. Durch "neue" Technologien wie GSync und FreeSync sind nun auch dynamische Bildwiederholfrequenzen möglich. Vereinfacht gesagt: die Grafikkarte kommuniziert dem Monitor "hier kommen gerade 55 Bilder pro Sekunde", und der Monitor passt seine Bildwiederholfrequenz entsprechend an. Wie man sich denken kann, muss dieses Feature natürlich von dem Monitor unterstützt werden.

Am Schluss sollte noch erwähnt werden, dass die Leistung der Grafikkarte stets ein gewisses "Polster" benötigt um auch bei Framedrops, also Einbrüchen der Framerate, stabile FPS liefern zu können. Das heißt, willst du bei (mind.) 75Hz zocken, muss deine Grafikkarte im Schnitt schon mehr leisten können als 75 FPS, um nicht unter die 75er Marke zu fallen.

Ich hoffe, das hilft. Entsprechend der Benchmarks hier auf Computerbase und dem Datenblatt deines (gewünschten) Monitors solltest du nun die restlichen Informationen miteinander verknüpfen können.

[1]: im Gegensatz zur Frametime, die angibt, wie lange die Grafikkarte zum Rendern eines Bildes benötigt. Aber das ist ein anderes Kapitel...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AxelFoley, Anakin Solo und (gelöschtes Mitglied)
LeeJack schrieb:
Ist es das gleiche?
Mit Adaptive Sync (FreeSync/G-Sync) kann man sagen es ist das gleiche weil FPS und Hz synchron laufen
also auf 144Hz hat man dann bei 100FPS "nur" 100Hz. Ohne Sync 100FPS@144Hz mit Tearing/Bildrissen.

LeeJack schrieb:
Würde die mit mind. 75fps einen 75 hz Monitor meistern ?
Muss er nicht. Es ist völlig egal wie viel FPS man zuspielt also auch 40FPS@75Hz sind keine Problem.

LeeJack schrieb:
Aber wenn ich dann nur einen 75 hz Monitor habe, stimmt es dann, dass der Monitor nur 75 fps und nicht schneller wiedergeben kann?
Man kann auch 1000FPS zuspielen aber 75Hz bedeutet der Monitor "blink" nur 75x pro Sekunde
also können deine Augen von den 1000FPS ja nur 75FPS sehen. Das Bild wird also nicht flüssiger.
Willst du mehr als 75 FPS sehen dann brauchst du mehr als 75Hz also lieber gleich 144Hz kaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LeeJack
Zurück
Oben