Wieso läuft ein Spiel mit 100fps flüssiger als mit 60fps, wenn der Monitor 60Hz hat?

kugelwasser

Lieutenant
Registriert
Aug. 2012
Beiträge
1.020
Ich versteh das irgendwie überhaupt nicht. Wenn man mal Counterstrike Go als Beispiel nehmen auf einem 60Hz Monitor:
Dort ist es ohne Vsync ja erst richtig flüssig wenn man so ca. 100fps hat, und mit 60fps ohne vsync ist es hingegen ziemlich unflüssig. Aber das macht doch gar kein Sinn, denn der Monitor kann doch nur 60fps darstellen, also ist es doch egal ob die GPU 60fps darstellt oder 100fps. 100fps müssten doch dann sinnlos sein, weil davon nur 60fps verwendet werden können. Wo bleiben dann also die 40fps?

Danke schonmal.
 
Zuletzt bearbeitet:
Vielleicht weil es unterschiedliche Dinge sind? Wozu ein Tv Gerät mit 200Hz, oder sogar 400Hz, meinetwegen auch nur 100Hz, wenn man Filme sowieso nur mit 24 Bildern pro Sekunde schaut? Denk mal drüber nach :)

Gerade in langsameren Szenen zeigt sich sehr gut, das mehr FPS den Übergang von Bild 1 zu Bild 2 viel weicher darstellt.
Dh. auch bei 60Hz kann man einen Unterschied erkennen, ob das Bild-Material mehr FPS liefert.

Beim letzten IPhone gibt es zB. diese Zeitlupen funktion. Die wäre aber nicht 'weich', wenn es weiterhin nur 30FPS wären.
Während der eigentlichen Aufnahme läuft die Welt aber auch nicht in Zeitlupe ab. :)

lg
fire
 
Zuletzt bearbeitet:
Umso mehr Hz -> umso flüssiger sieht das Bild aus
Umso mehr FPS -> umso weniger Texturüberlagerungen hast du bei der Bewegung(in vielen spielen sieht man das z.b. wenn man sich vor einer Kante dreht und diese dann öfters nicht perfekt gerade in der Bewegung dargestellt wird bei lowfps)
 
firexs schrieb:
Vielleicht weil es unterschiedliche Dinge sind? Wozu ein Tv Gerät mit 200Hz, oder sogar 400Hz, meinetwegen auch nur 100Hz, wenn man Filme sowieso nur mit 24 Bildern pro Sekunde schaut? Denk mal drüber nach :)

Gerade in langsameren Szenen zeigt sich sehr gut, das mehr FPS den Übergang von Bild 1 zu Bild 2 viel weicher darstellt.
Dh. auch bei 60Hz kann man einen Unterschied erkennen, ob das Bild-Material mehr FPS liefert.

Beim letzten IPhone gibt es zB. diese Zeitlupen funktion. Die wäre aber nicht 'weich', wenn es weiterhin nur 30FPS wären.
Während der eigentlichen Aufnahme läuft die Welt aber auch nicht in Zeitlupe ab. :)

lg
fire

Aber auch nur wenn die Zwischenbilder aktiv berechnet werden, sonst ist es egal welche Frequenz der Bildschirm hat. (Zumindest wenn es 24fps sind, Filme und dergleichen)

@TE du vergleichst aber auch VSync an und VSync off, schonmal was von Tearing gehört (bei VSync off)?
Das beeinflusst die Wahrnehmung schon sehr stark, vllt kommt der negative Eindruck bei dir auch daher.
 
Je höher die FPS, desto geringer das Tearing, welches auch für einen unsauberen Bildlauf sorgt. Mit einer schnellen Karte sollte es kein Problem sein, permanent auf weit über 120 FPS zu kommen.

Bei CS 1.6 z.B. kann man die FPS auf 61 begrenzen (ohne V-Sync), das läuft dann besser als 101 FPS ;) Leider wirken sich 61 FPS auch auf die Netsettings aus...
 
Befürworte meine Vorredner. So schaut es aus. Ich besitze auch nur einen 60-75 Hz. Monitor, aber InGame habe ich oft über 100 FPS. Das macht das Spiel von der Bewegung her weicher und flüssiger. Mehr Smooth sozusagen.
 
DarkInquisitor schrieb:
@TE du vergleichst aber auch VSync an und VSync off
tut er doch nicht?! Beide male spricht er von vsync off!

G-Sync soll dem Ganzen aber glaube entgegenwirken. Ist ja in letzter Zeit vermehrt davon zu lesen.
 
ist doch ganz einfach. Der Monitor macht 60 Hz, also alle 16,66 ms 1 Bild.
Wenn du jetzt mit 89 fps ohne V-Sync spielst, gibt die Grafikkarte alle 11,24 ms 1 Bild aus.
Um es einfacher zu machen lassen wir mal die Nachkommastellen weg.

Die Grafikkarte hat das 1. Bild nach ~11ms fertig, der Monitor gibt es nach ~17ms aus.
Bild2 ist nach ~22ms fertig, der Monitor gibt es aber gar nicht aus oder nur zum Teil (tearing).
Bild3 ist nach 33ms fertig, der Monitor gibt es nach 34ms aus.

Durch die unterschiedlichen Zeiten und die schwankende fps gibt der Monitor fast immer ältere Bilder aus. Je schneller die Grafikkarte die Bilder berechnen kann (mehr fps), desto größer ist die Chance dass der Monitor ein aktuelles Bild ausgibt (=flüssiger).
 
Was willste mit Vsync wir kennen nicht mal seine Hardware. Wenn Vsync dann versucht die Graka zumindest auf 60 FPS zu bleiben. Je nach Game klappt das nicht immer. Sehr Hardware hungrig das Ganze.
 
Zuletzt bearbeitet:
DarkInquisitor schrieb:
@TE du vergleichst aber auch VSync an und VSync off, schonmal was von Tearing gehört (bei VSync off)?
Das beeinflusst die Wahrnehmung schon sehr stark, vllt kommt der negative Eindruck bei dir auch daher.

Nein ich vergleich
Vsync off 120fps
Vsync off 60fps

Ich wollt halt wissen wieso es bei 60fps ohne vsync mehr Tearing gibt, als bei 100fps. Irgendwie fehlt mir bei euren antworten etwas die Logik, also ich versteh nicht wieso das so ist. Das es so ist, ist ja klar, aber wieso?

edit:

h00bi schrieb:
ist doch ganz einfach. Der Monitor macht 60 Hz, also alle 16,66 ms 1 Bild.
Wenn du jetzt mit 89 fps ohne V-Sync spielst, gibt die Grafikkarte alle 11,24 ms 1 Bild aus.
Um es einfacher zu machen lassen wir mal die Nachkommastellen weg.

Die Grafikkarte hat das 1. Bild nach ~11ms fertig, der Monitor gibt es nach ~17ms aus.
Bild2 ist nach ~22ms fertig, der Monitor gibt es aber gar nicht aus oder nur zum Teil (tearing).
Bild3 ist nach 33ms fertig, der Monitor gibt es nach 34ms aus.

Durch die unterschiedlichen Zeiten und die schwankende fps gibt der Monitor fast immer ältere Bilder aus. Je schneller die Grafikkarte die Bilder berechnen kann (mehr fps), desto größer ist die Chance dass der Monitor ein aktuelles Bild ausgibt (=flüssiger).

ok das gehe ich gleich nochmal durch im kopf.
 
Tearing hat nichts damit zu tun ob es flüssig wird, das sind nur diese sichtbaren Versatzstreifen. Die 100fps wirken flüssiger weil es mehr Bilder pro Sekunde sind, was sich bei vielen Spielen auch auf die Berechnung der Spielwelt auswirkt.
 
h00bi schrieb:
ist doch ganz einfach. Der Monitor macht 60 Hz, also alle 16,66 ms 1 Bild.
Wenn du jetzt mit 89 fps ohne V-Sync spielst, gibt die Grafikkarte alle 11,24 ms 1 Bild aus.
Um es einfacher zu machen lassen wir mal die Nachkommastellen weg.

Die Grafikkarte hat das 1. Bild nach ~11ms fertig, der Monitor gibt es nach ~17ms aus.
Bild2 ist nach ~22ms fertig, der Monitor gibt es aber gar nicht aus oder nur zum Teil (tearing).
Bild3 ist nach 33ms fertig, der Monitor gibt es nach 34ms aus.

Durch die unterschiedlichen Zeiten und die schwankende fps gibt der Monitor fast immer ältere Bilder aus. Je schneller die Grafikkarte die Bilder berechnen kann (mehr fps), desto größer ist die Chance dass der Monitor ein aktuelles Bild ausgibt (=flüssiger).

hier stand mist
 
Zuletzt bearbeitet:
Naja... wenn du denkst dass 17ms über kill oder nicht entscheiden, dann weiß ich auch nicht mehr...

Finde das dann alles etwas übertrieben...
 
Zurück
Oben