• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Flüssiges Spielen: Wie viele FPS müssen es für dich mindestens sein?

hm ja interessant wie wohl crysis mit crt wohl ausgesehen hatte.Hat ja auch 100 HZ also gehen würde das mit Sicherheit.Recht viel schlechter als die billigen TFTS sah es ganz sicher nicht aus.
 
Kommt stark auf das Display an. Auf meinen alten Röhren kann ich mir auch FPS unter 30 antun, das macht da nicht so viel aus. Auf meinem normalen LCD hingegen stört mich alles unter 60 FPS enorm und macht alles was mit Action und Geschwindigkeit zu tun hat unspielbar. Shooter dürfen gerne über 100 FPS laufen, am besten zwischen 120 und 144 FPS.
 
Spock37 schrieb:
Alle Hollywoodfilme laufen mit < 24 Hz. Mehr können auch die menschlichen Augen nicht[...]
Doch! Das sich diese urbane Legende noch immer so hartnäckig hält, kann ich bei der Informationsflut nun wirklich nicht verstehen. Genau so, wie das Thema um die 24fps im Kino.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
immer wieder witzig wie sich die bildverarbeitung des menschlichen auges unterscheidet, die einen sehen 30 bilder in einem zeitraum die anderen können 120 aufnehmen, ganz zeitverzerrte beherrschen noch viel mehr, wie war das bei VR2 180IQ?
 
FeArL3Zz schrieb:
Also wäre doch blöd wenn ich dafür die Grafik runter schraube
Es geht auch Grafik und 144Hz

Dafür brauche man eben entsprechende Hardware / Monitor.

Das du keinen Unterschied wahrnehmen kannst glaube ich dir nicht.

Ich bemerke sofort wenn ich den Grafiktreiber aktualisiert habe das sich mein Monitor auf 60Hz zurückgesetzt hat und das nur bei der reinen Maus Bewegung oder öffnen / verschieben einzelner Programme. Hab 165Hz standardmäßig.
 
mylight schrieb:
immer wieder witzig wie sich die bildverarbeitung des menschlichen auges unterscheidet, die einen sehen 30 bilder in einem zeitraum die anderen können 120 aufnehmen, ganz zeitverzerrte beherrschen noch viel mehr, wie war das bei VR2 180IQ?
Die Bildverarbeitung des Sinnesorgans Auge ist über einen großen Schnitt an Menschen ähnlich.
Das liegt im Verarbeitungsbereich der Photonen im peripherem Sichtfeld [Außenbereiche, in welchen der Mensch aufgrund des Evolutionären Vorteils besonders Bewegungsempfindlich ist (aus dem Blickwinkel einen Feind erkennen)] und der weiteren Reiz- bzw. Signalübertragung bei 100-110Hz. Somit wäre bei trennscharfen, also technisch perfekt dargestellten 120Hz bei 120FPS eine sinnvolle Grenze erreicht.

Es wird hier im Thread viel durcheinandergeworfen.
Anzeigetechnik, Bilderzeugungstechnik, Verarbeitungsgeschwindigkeiten bzw. Trägheiten.
Es gibt nicht DEN 144Hz Monitor oder DIE 90FPS oder UHD- Auflösung.

So kann die Elektronik des Monitors vielleicht 144 Mal pro Sekunde elektrisch eine Anregung der Pixel erzwingen, wenn dieser Anregung aber erst träge nachgekommen wird, so dass die absoluten Farb- und Helligkeitszielwerte zwischen den Refresh- Impulsen nicht erreicht werden können, stehen die 144Hz zwar im Datenblatt, haben aber mit der realen Darstellungsfrequenz nichts zu tun.
Ebenso wie sich dadurch die effektive Auflösung bei Bewegtbilddarstellung mit hoher Winkelgeschwindigkeit deutlich reduzieren kann.

Deshalb ist die Umfrage eigentlich auch ziemlicher Quatsch, weil hier keiner eine reale Referenz dazu hat und größtenteils den eigenen Blickwinkel, der durch die vorhandene Hardware geprägt ist bewertet.

Dabei gilt als Referenz noch nicht mal mit CRT (auch TFTs und das deutlich reaktivere OLED werden hier gezeigt)->
, am ehesten noch mit einem High Refresh DLP- Beamer, die dem Ideal von Reaktionszeit und Trennschärfe des Bildes beim Refresh noch am nähesten kommen ->
, was denn technisch sauber getrennte Bildwiederholraten bewirkt.

Ebenso bei den FPS. Es macht einen riesen Unterschied, ob ich 40FPS mit einem linealgeraden Frametime-/Pacing- Graphen und womöglich softwareseitig doppelter Polling- Rate pro Frame des Maus- Inputs erlebe, oder schwankend zwischen 60 und 90FPS mit großen Ausreißern in Sachen Frametime/Pacing und framegenauer Inputsynchronisation der Maus.

Ersteres wird durchgängig als erheblich "flüssiger" wahrgenommen. Unabhängig der Präferenz des Probanden.
Das Thema ist also verzahnt und weit komplexer, als hier so manchem bewusst ist.
Und eine Bewertung ist aufgrund des fehlenden Maßstabes so nicht sinnvoll möglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Melmoth, AvenDexx, Baal Netbeck und eine weitere Person
Apocalypse schrieb:
Nicht wirklich, nicht vergessen, 24 Bilder pro Sekunde bedeutet in der Regel auch lange Belichtungszeiten von iiirc in der Regel etwas über 20ms oder auch 1/48s zumindest bei einem Shutter Angle von 180°
Man hat also reichlich bewegungsunschärfe mit drin, was den üblichen cineastischen Stil ausmacht und darüber hinaus auch viel unter der ganzen Unschärfe verstecken kann.

Das bisschen Unschärfe reicht bei mir nicht ansatzweise aus, um 24 fps-Ruckeln zu tarnen. Kamerafahrt muss auch nicht sein, für mich sieht teilweise schon eine Kopfdrehung oder Armbewegung mit 24 fps stotternd und abgehackt aus.

Mit Zwischenbildberechnung sehen Kinofilme für mich um Welten realistischer aus, und sind weniger anstrengend für die Augen. Einziger Haken ist ein gewisser Uncanny-Valley-Effekt: wenn das Ruckeln als dominierender Qualitätsmangel wegfällt, treten andere in den Vordergrund, wie misslungene CGI-Effekte, oder die komischen Farben von 60er-Jahre-Filmen.
 
  • Gefällt mir
Reaktionen: Apocalypse
mibbio schrieb:
Es gab nicht nur 60 Hz Röhrenmonitore, sondern auch genug Modelle mit 70 Hz oder 75 Hz.
Ich weiß nicht mehr ganz genau, welchen Röhrenmonitor ich da hatte, bei meinem ersten PC, aber ich weiß noch, der konnte damals ohne Probleme 85Hz darstellen, was zur damaligen Zeit für eine ruckelfreie Darstellung gesorgt hat.
Mit 60Hz hat es damals geruckelt, daß weiß ich noch, genau wie damals die TV's mit 50Hz ganz schön geruckelt haben, da sah man einen deutlichen Unterschied.
Heut ist die Darstellung auf meinem Monitor bei 60Hz für mich ruckelfrei, am Smartphone erkenne ich keinen Unterschied also von da her: ich klinke mich jetzt aus, ich bleibe dabei, daß das menschliche Auge keinen Unterschied sehen wird zwischen 120 und 144Hz, auch wenn ich dafür wieder Schelte bekommen werde.
Ergänzung ()

Vitec schrieb:
Ich habe selbst nie Fortnite gezockt, aber mein Bruder meinte, man braucht ab einem gewissen Level diese angepeilten 400, 500, 600 fps um eben diese millisekunde schneller die Wand aufzubauen in einem 1:1 am Ende der Matches.
Dürfte in BF und Co auch ähnlich aussehen, dass man mit 120 fps+ Hardware leichte Vorteile hat.
Ja, daß mag ja sein, daß man mit mehr FPS eine Wand schneller aufbauen kann, aber sogar wenn dann ein 120+ Monitor das Bild darstellt, werden doch nur 120 Bilder angezeigt, oder sehe ich das falsch?
Die Restlichen werden dann geskippt? Und die Mauer ist genauso schnell fertig?

Und vielleicht ist ein Bruchteil der Menschen in der Lage, diese 120 Bilder pro Sekunde auch wahr zunehmen, ich kann es nicht, und wenn jetzt noch Jemand kommt mit: ich brauche 240Hz, ich sehe alles, nein, daß kann nicht sein

An all die Leute, die das behaupten: wischt mal ganz schnell mit eurer Hand am Kopf vorbei, seht ihr wirklich die ganze Zeit euren Arm/ Hand?
Eine Fliege kann das, denn Facettenaugen können problemlos so viele Bilder wahrnehmen, aber deren Augen sind eben mehr auf Bewegung forciert, nicht auf ein so lebhaften Bild, wie es unser Auge uns liefert.
Und genau das ist der Grund, warm die Fliege euch so oft entwischt: für die Fliege bewegt sich die menschliche Hand quasi in Zeitlupe.

Und das hier war jetzt wirklich mein absolut letzter Thread zum Thema FPS.
Ich wurde schon in einem anderen Thread als Behinderter beleidigt, weil ich keinen Unterschied mehr zwischen 80 und 120Hz gesehen habe 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
testwurst200 schrieb:
Du bemerkst das
Ich nicht

Warum glaubst du mir nicht?
Ich selbst habe einen 144 hz Monitor
Du warst doch garnicht gemeint.

Ich hab @FeArL3Zz zitiert. Sollte so auch erkennbar sein. Außer man hat schlechte Augen und erkennt ebenfalls den Unterschied zwischen 30Hz/60Hz & 144Hz nicht wie in deinen Fall.
 
halbtuer2 schrieb:
Und das hier war jetzt wirklich mein absolut letzter Thread zum Thema FPS.
Ich wurde schon in einem anderen Thread als Behinderter beleidigt, weil ich keinen Unterschied mehr zwischen 80 und 120Hz gesehen habe 😉
Ich würde ja gelyncht werden, aber habe selbst beim Wechsel vom 60 hz Dell zum aktuellen 144hz Samsung irgendwie nicht so den "WOW" Effekt gemerkt , eigentlich fast gar nichts um ehrlich zu sein. Auch nicht beim scrollen, Maus usw. . Denke einfach, dass hier Menschen wirklich sehr unterschiedlich gewisse Dinge wahrnehmen. Aber das gibt es in allen Berreichen: Schmerzschwelle, Temperaturempfinden, Geschmack ... . Hier sollte man einfach "Leben und Leben lassen" ausüben.

Aktuell in Starfield bin ich aber auch mit medium Grafikqualität absolut zufrieden. Ja es geht viel besser und vorallem in Höhlen könnte ich mir RT sehr geil vorstellen bzw. hat man beim Übergang von einem Innenmodul in den Aussenberreich einen wirklich schrecklichen Lichtübergang. Oder innen zu hell usw. .

PS.: Ich meine auch, das 75-85 hz bei den Röhren standard war. Habe keine Röhre im Kopf die 120hz konnte oder die waren evtl. ausserhalb meiner Preislage.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cerebral_Amoebe, testwurst200 und Verak Drezzt
Vitec schrieb:
Ich meine auch, das 75-85 hz bei den Röhren standard war. Habe keine Röhre im Kopf die 120hz konnte oder die waren evtl. ausserhalb meiner Preislage.
Gab schon ein par. Samsung, Iiyama von Mitsubishi oder auch NEC XP/XM.
1695711409746.png

https://www.manualslib.com/manual/109868/Nec-Xm37.html?page=29#manual
Klar- Gute Monitore waren damals sch..... teuer.
 
  • Gefällt mir
Reaktionen: Apocalypse
@Taggo
Ich habe quasi für FeArL3Zz geantwortet und @Vitec für mich.

Die Menschen sind unterschiedlich :)

Ich bin generell ein "Bauer" und bin nicht so feinfühlig. Grafik war mir beim spielen auch nie wichtig.
 
Vitec schrieb:
Habe keine Röhre im Kopf die 120hz konnte oder die waren evtl. ausserhalb meiner Preislage.

Das konnten viele, man musste aber Auflösung opfern. Limit war die Horizontalfrequenz, und die ergibt sich aus Vertikalfrequenz mal Zeilenanzahl. Stellte man die Windows-Auflösung runter, z.B. von 1024x768 auf 800x600, gab es höhere Bildwiederholfrequenzen zur Auswahl. Die eingestellten Frequenzen hat Windows m.E. auch für jede Auflösung gespeichert, so dass man sie nur einmal einstellen musste. Vollbild-Spiele haben m.E. auch diese Werte verwendet.

Oder es gab eigene Einstellungen im Spiel, wie die Variable r_displayrefresh bei Quake 3.
 
  • Gefällt mir
Reaktionen: mibbio und Apocalypse
halbtuer2 schrieb:
Ich weiß nicht mehr ganz genau, welchen Röhrenmonitor ich da hatte, bei meinem ersten PC, aber ich weiß noch, der konnte damals ohne Probleme 85Hz darstellen, was zur damaligen Zeit für eine ruckelfreie Darstellung gesorgt hat.
Mit 60Hz hat es damals geruckelt, daß weiß ich noch, genau wie damals die TV's mit 50Hz ganz schön geruckelt haben, da sah man einen deutlichen Unterschied.
Bei 50-60Hz haben die Röhrenmonitore damals nicht "geruckelt" sie haben geflimmert und das sah auch ein "Blinder". Standard bei Röhrenmonitoren waren 75Hz, einige gingen noch höher, wobei das selten einen Unterschied ausmachte. Es gab auch Fernseher mit 100Hz, wobei bei Fernsehgeräten man grundsätzlich eine Beschichtung mit einer höheren Nachleuchtdauer nutzte, weshalb die Problematik hier nicht so ausgeprägt war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Apocalypse
.Sentinel. schrieb:
Gab schon ein par. Samsung, Iiyama von Mitsubishi oder auch NEC XP/XM.
Anhang anzeigen 1401853
https://www.manualslib.com/manual/109868/Nec-Xm37.html?page=29#manual
Klar- Gute Monitore waren damals sch..... teuer.
Das beste für den Consumer, was ich noch im Kopf habe war Sony Triniton 21" das war auch die maximale Preilage in der ich eingekauft habe für mich ;) .
JMP $FCE2 schrieb:
Das konnten viele, man musste aber Auflösung opfern. Limit war die Horizontalfrequenz, und die ergibt sich aus
Ach stimmt ja, damals hat man bei niedrigerer Auflösung mehr HZ bekommen :daumen: .
Komplett vergessen, habe die Monitore nur in max Auflösung benutzt.

Ps.: Bin nicht alt um das schon mitgemacht zu haben, sondern schon zu alt und das schon alles vergessen :lol:
 
0,2% 20FPS :D:D
 
  • Gefällt mir
Reaktionen: Blood011
Nicht viele cs Spieler dabei anscheinend. Cs unter 200 fps ist echt nicht schön, vorallem weil bei smokes die fps extrem schwanken können. Ich limitiere bei 300 erst 🙈
 
JMP $FCE2 schrieb:
Mit Zwischenbildberechnung sehen Kinofilme für mich um Welten realistischer aus,
Realistischer ist Video mit mehr Bildern pro Sekunde sowieso. Sowohl Youtuber mit ihren 60 bzw 50fps Videos als auch Hollywood mit 48hz HFR 3D haben ja gezeigt das Dinge viel echter wirken können.

Aber dann verliert man halt diesen "Traumhaften" Kino Look, der bei den meisten tatsächlich als flüssig wahrgenommen wird, der aber gleichzeitig wirklich extrem Unscharf ist. Das sind Belichtungszeiten die man nicht mal für Portrait Aufnahmen nimmt, weil selbst kleinste Bewegungen schon das Portrait schon unscharf machen würden. Und das nimmt man dann für Aktion Szenen. Viel Detais bleiben da echt nicht übrig.

Dafür hat man mit HFR dann das Problem das so manches Requisit nun jetzt echt negativ auffällt, weil das Bild, besonders wenn noch 3D und imax dazu kommt. dann tatsächlich scharf genug das man als zuschauer quasi ins Set reinschauen kann.

Schade für dich, das Kino für dich ruckel, ich mag zwar HFR auch wirklich gerne, aber für mich funktioniert Kino mit 24 Bildern auch und ich kann auch nachvollziehen wo die Stärken liegen. Mal ganz davon ab das ins Kino gehen, auch noch mal was anderes ist als im Heimkino einen Film anzuschauen … also zumindest für mich.
Ergänzung ()

Don_Tralle schrieb:
Aber schön, dass du auf mein Beispiel näher eingehst, Autovergleiche gehen immer finde ich :)
Und irgendwie passt der sogar sehr gut, weil heute haben wir LCDs oder OLEDs und keine CRTs die nur eine ms Nachleuchten. Die Technik ist anders und heute braucht es halt mehr hz zum kompensieren. Mal ganz davon ab das auch früher schon mit 120 FPS Quake 3 damals gespielt wurde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Mal ein paar Infos:
Das Auge (besser die Retina) hat ca. 120 Mio. Stäbchen (für Helligkeitsinformationen)
und etwa 6 Mio. Zapfen für Farbinformationen.

Also eigentlich gute Werte, man stelle sich ein Bild mit 120.000.000 Pixel in Graustufen vor.
oder ein 6.000.000 Pixel Farb-Monitor (immerhin weniger als ein 4K-Gerät).

Jetzt kommen aber die Einschränkungen (des Interfaces):
a) Aber nicht jedes Stäbchen und jeder Zapfen sendet die Informationen direkt ins Gehirn.
Das machen die sog. Ganglien. Und davon gibt es wiederum nur 1 Mio. pro Auge
Diese sammeln die Infos aus den 120 Mio. Stäbchen und den 6 Mio. Zapfen.
Also kann man vereinfacht sagen eine Ganglie ist für die Helligkeitsinfo aus 120 Stäbchen und den Farbwert aus 6 Zapfen zuständig.

b) Jede Ganglie wiederum sendet 16 Mal pro Sekunde Infos ans Hirn.
Das ist aber nicht synchron, das heißt, nicht alle Ganglien senden gleichzeitig.
Sie senden versetzt.

Den Rest setzt das Hirn durch Interpolation selbst zusammen.

Bastelt Euch selbst daraus ein Bild, welche Auflösung das gesamte Auge überhaupt wahrnehmen kann,
welchen Teilabschnitt des Auges ein Monitor abdeckt (Abstand, Ausfüllung Blickfeld, Fokussierung etc.).

Und schon werdet Ihr feststellen, dass man mit max. 2 Mio. Ganglien kein 4K oder 8K Bild in seiner Gänze wahrnehmen kann.
Wenn man bedenkt, dass ein FullHD Fernseher nicht das gesamte Blickfeld ausmacht, dann kann selbst dieser nicht in Gänze auf einmal wahrgenommen werden.

Klar kann sich ein Auge auf einen Bildabschnitt fokussieren, aber dann eben nur auf den Abschnitt und diesen "in höherer Auflösung" wahrnehmen.
Oder das gleiche Bild wird über die Zeit mit immer kleinen Abweichungen (minimale Schwankungen des Blickfeldes) aufgenommen und übertragen und dann vom Hirn mit der Zeit in höherer Auflösung zusammengesetzt.

Und das gleiche Prinzip wie bei der Auflösung kann man auch bei der Bewegungsrate ansetzen.

An den physikalischen Gegebenheiten, dass es nur eine Mio. Ganglien pro Auge gibt und dass diese nur 16 Mal pro Sekunde senden, kann noch soviel Diskussion und Placebo-Gefühl nichts ändern.
Übrigens ist dieses "16 Mal" nicht wenig. Die Nervenbahnimpulse sind zwar elektrisch, aber die Rezeptoren sind chemisch. der Neurotransmitter Glutamat muss erstmal reagieren.

Die Rezeptoren reagieren auf Änderungen, dann senden sie Impulse.
Wenn man sich also auf einen Bildabschnitt konzentriert (und das Auge darauf fokussiert), nehmen diese Rezeptoren die Informationen sensibler auf.

Vielleicht(!):
Vielleicht können die Ganglien bei einem jungen, gut trainierten Gamer wirklich so absenden, dass diese in Reihe (also eine Ganglie nach der anderen) für den gleichen Bildausschnitt Informationen liefern, dass sagen wir mal Bewegungen mit 144 Hertz wahrgenommen werden.
Dann wären für eine solche Informationsdichte 144/16= 9 Ganglien zuständig.
von den insgesamt 2 Mio. Ganglien würden dann aber nur noch 1/9 für die "Auflösung" bereitstehen.
(so funktioniert übrigens das periphäre Sehen: Ganglien der Sehregionen, die eh nicht fokussiert sind und daher unscharf, schalten sich zusammen und senden damit schneller Informationen ans Gehirn, wenn sich in der Region was ändert - Eine Sicherheitsfunktion zum Überleben)

Durch Interpolation des Gehirnes kann natürlich die Auflösung wieder "hochgerechnet" werden oder das Gehirn erzeugt bei weniger schnellen Informationen eine "Frame-Interpolation".
Aber das wiederum sind keine realen Informationen, sondern Dinge, die durch Erfahrungen und "Zwischenspeicherung" von diesem angenommen werden.

Daher sehe ich die ganze Diskussion, welche Bildwiederholfrequenzen wirklich wahrgenommen werden können, sehr entspannt an.
Das meiste ist hier nämlich nur Gefühl und Meinung. Und das ist bei jedem Menschen anders. Fakten verwirren da nur.

Beispiel zum Selbermachen:
Packt einen Text in die Mitte eures Bildschirms, packt einen gedruckten Text am Rand Eures Blickfeldes.
Lest den Text in der Mitte. Wie gut nehmt Ihr zeitgleich den Text am Rand wahr? Nicht schummeln und die die Augenrichtung ändern.
Das gleiche kann man auch mit zwei Monitore probieren (oder Monitor und Handy). Spielt ein tonloses Video auf dem Handy am Rand ab und eines auf Euren zentralen Monitor.
Wenn man nicht direkt zum Rand schaut, weiß man nicht mal, was da abgespielt wird, in welcher Frequenz etc.
Der Wahrnehmungsfokus des Auges ist in einem Winkel unter 30 Grad. Für alles darüber muss das Auge bewegt werden. Und damit ist die Gleichzeitigkeit der Wahrnehmung dahin.
Man glaubt nur an Gleichzeitigkeit, weil das Gehirn interpoliert.

Nebenbei:
Früher bei CRT-Monitoren hat ein Elektronenstrahl eine dunkle Oberfläche (Punkt) kurzzeitig zum Leuchten gebracht.
Der Strahl ist immer von links nach rechts eine Reihe gefahren, dann eine Reihe tiefer wieder angefangen, bis das Ganze Bild dargestellt wurde, dann wieder von oben angefangen.
Zwischenzeitlich haben die zum Leuchten gebrachten Punkte ihre Helligkeit wieder verloren.
Dadurch gab es ein Pulsen der Helligkeit.
Dieses Pulsen war unterhalb einer gewissen Frequenz störend. Damals hieß es, ab 72 Hertz sei es nicht mehr so ermüdent und kaum wahrnehmbar.
Der Wechsel von CRT auf LCD brachte in sich den Vorteil, dass es keinen Elektronenstrahl mehr gab.
Die Zellen bekamen eine Information und behielte sie solange, bis eine neue Information (Farbe/Helligkeit) gegeben wurde.
Ein Standbild beispielhaft hat sich dadurch nie verändert, die Zellen blieben gleich.
Die Hintergrundbeleuchtung der Monitore bestand aber lange Zeit aus Röhren.
Und die wiederum pulsten. Und dieser Puls wiederum wurde wahrgenommen.
Wenn jetzt also die Beleuchtung "analog" durchgehend ohne Puls da wäre, könnte ein noch so guter Beobachter nicht feststellen, mit welcher Frequenz ein stillstehendes Bild am Monitor überschrieben wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Melmoth, xexex, Performator und 2 andere
Zurück
Oben