Zusammenhang FPS und Hz

Fligor

Ensign
Registriert
Juni 2007
Beiträge
156
Hallo Leute,

hab mich letztens gefragt :rolleyes: was passiert wenn:

1.
Ich ein Spiel mit 35 fps spiele und mein Monitor eine Bildwiederholfrequenz von 60 Hz hat.
-> wie genau werden die 35 fps auf die 60 Hz verteilt?

und Gegenbeispiel

2.
Ich mit Spiel bei 100 fps mein Monitor zeigt aber immer noch 60 Hz an. Es passen doch mathematisch keine 100 fps in 60 Hz rein.

3.
wenn Fall 2. aktiv ist und die "Mehrleistung" von 40 fps definitiv nicht darstellbar ist, dann könnte man doch durch FSAA und / oder andere Filter diese Mehrleistung damit ausnutzen, oder?

PS: Wie klappt das ganze auf LCD Ebene?
 
Zuletzt bearbeitet:
das Eine hat mit dem Anderen rein nichts zu tun !
dh > es ist völlig banane ob der Moni mit 50-60-100 Hz oder was auch immer läuft
er bringt immer dieselbe "Frame-Leistung" die dein SYS hergibt !
http://de.wikipedia.org/wiki/Bildwiederholfrequenz
wär ja sonst auch traurig > bräuchtes ja für fast jedes Spiel nen anderen Moni...
aber min 60hz(Röhre) sollte er schon haben sonst flimmerts !
bei LCD >andere Technik daher egal ob 50-60 oder 70 hz ! mehr bringen die eh nicht...
 
Zuletzt bearbeitet:
Ich weiß dass die nicht direkt voneinander abhängig sind, war ja auch nicht meine Frage. Ich weiß auch, dass 70 Hz schon flimmer. Das ist alles klar, dass ein Röhrenmonitor die Frames per Sekonds darstellt, welche mein System rausquetscht ist auch klar;
meine Frage bewegt sich auf der theoretischen Ebene und wie dies in der Praxis umgesetzt wird.

1. Anders formuliert:

mein game läuft mit miserablen 15,7 fps. Es ruckelt, ich weiß dass meine Grafikkarte dafür vwerantwortlich ist, weil diese uralt ist. Das Bild ist meinetwegen auf 100 Hz eingestellt und somit flimmerfrei. Es ruckelt nur der "PC" und nicht der Monitor. Das ist klar, aber wie rechnet bzw. wo rechnet der Monitor die sich stetig verändernde Fps-Zahl vom PC auf seine 100 Hz hoch? Oder übernimmt diese Hochrechnung die Grafikkarte? Irgendwo müssen die Bilder ja verdoppelt werden, nur was ist mit den krummen Zahlen, z.B. 13,7 oder 17. Variiert die Hz Zahl immer leicht?

2. Jetzt kommts:

ich installiere ein Uraltgame aufm PC und das läuft mit 250 fps. Diese Frames Per Seconds können 100 Hz (100 Bilder pro Sekunde) aber definitiv nicht darstellen!!! Siehe wiki... Rechnet der die sich runter? Wo geschieht dies im Monitor in der Grafikkarte?

2.1

Dieses Runterrechnen ist ja eigentlich theoretischer Quatsch, man könnte unmengen an Details und Bildfiltern hinzuziehen, welche das System belasten und das Uraltspiel nur noch mit 100 fps läuft, oder nicht?! Das wäre dann ideal fürs Auge und für eine ideale Ausnutzung der Leistung des Systems in Abhängigkeit zum überhaupt Darstellbaren vom Monitor aus.


Jetzt verstanden? Ich hoffe ich habe mich klar ausgedrückt.
 
Hi,

ich habe mich damit mal beschäftigt und hoffe, ich bekomme es noch zusammen (wenn nicht, bitte korrigieren):
Deine Anwendung baut komplette Frames im Bildspeicher der Grafikkarte auf. Der RAMDAC (analog) oder der TMDS (digital) tastet den Bildspeicher mit der Frequenz des Monitors ab.
Ist deine Bildwiederholrate des Spiels zu niedrig, kann es passieren, dass ein und dasselbe Frame mehrfach abgetastet wird. Ist die Bildwiederholrate des Spiels größer, als die des Monitors können dir ganze Frames verloren gehen.
In beiden Fällen kann es aber auch vorkommen, dass in dem Moment, in dem der Bildspeicher abgetastet wird, die Anwendung ein neues Frame im Bildspeicher aufbaut. Passiert das, hast du zwei verschiedene Frames auf einem Bild. Schön zu sehen, ist so etwas, wenn man sich horizontal in einer 3D-Welt dreht oder bewegt. Es enstehen Versätze im Bild. Bei ausreichend hohen Bildwiederholraten sieht man das dann aber eh nicht mehr.
Dieser asynchrone Zustand lässt sich vermeiden, indem man die Bildwiederholrate der Anwendung an die des Monitors anpasst (Stichwort vertikale Synchronisation). Damit wird sichergestellt, dass RAMDAC/TMDS immer komplette Bilder auslesen und die Versätze verschwinden.

Ich hoffe, du kannst dir damit deine Fragen selbst beantworten. Der Schlüssel sollte die Abtastung des Bildspeichers sein...
 
Zuletzt bearbeitet:
Richtig, der Monitor holt sich bei 60 Hz einfach alle 0,016 sec ein Bild von der Graka ab. Ob es das selbe wie bei dem vorherigen abtastschritt war oder ob zwischen den 0,016 sec noch dre weitere Bilder vom Spiel lagen ist dem Monitor egal.

Insofern hast du recht, wenn dein Momitor mit 60Hz abtastet und deine Graka die Bilder mit 100Hz (FPS) raushaut, verschenkst du 40 Bilder die nicht abgetastet werden.
 
Das Thema hatten wir erst. Jedoch finde ich das man über Hz und FPS nie genug reden kann.

Weis jemand ob die Grafikkarte mehr als 75 FPS liefert wenn man im GRAFIKTREIBER 75 Hz einstellt?
Wäre ja möglich das dank DVI das ganze auch funktionieren würde oder?
Denn Leistung (FPS) verschenken kann garnichts.
Ich finde das sollte mal aufgeklärt werden.
PROFESSIONELL (CB-BERICHT)
 
Danke an eure Antworten haben doch sehr geholfen!

@scorpion Probiers doch mal mit nem alten Spiel und berichte.
es ist so, habs schon ausprobiert mit dvi. der monitor holt sich nur nach seinem frequenzbedarf die bilder ab; was mehr produziert wird ist ihm egal.

habe auch noch nie gehört, dass eine grafikkarte nicht unter vollast läuft.
 
Zurück
Oben