BenQ Monitor 60 Hertz (Ego Shooter)

joop111

Cadet 2nd Year
Registriert
Feb. 2008
Beiträge
18
Hey CB Community,

ich habe mir vor ein, zwei Wochen einen neuen Monitor gekauft 22" BenQ - genaue Bezeichnung kommt wenn ich zu Hause bin :)

Ist der Unterschied zwischen 60 und 100 Hertz bei EgoShootern deutlich sichtbar? Wenn ja wie äußert sich der Unterschied?

Ich bin für jede konstruktive Antwort dankbar. Ich habe google schon verwendet konnte aber nichts genaues finden, welches zu meinem Problem passt. Der Monitor kann anscheinend egal in welcher Auflösung nur 60 Hertz - toller Fehlkauf :(

Gruß
joop
 
60hz sind ja normal, die 100-120hz pc monitore sind um einiges teurer und die braucht man nur wenn man 3D nutzen möchte soviel ich weiß
 
Das mit der Bildwiederholfrequenz bei TFT's ist eigentlich B......t. Die 60Hz limitieren z.b. deine Framerate erst wenn du Vsync einschaltest. Aber im Normalfall merkt man bei einem TFT gar nichts, bei Röhrenmonitoren war das anders weil dort die Hz noch angegeben hat mit welcher Frequenz der Elektronenstrahl das Bild aufgebaut hat (wobei 60 Hz da ganz schön tödlich für die Augen waren, darum rennen soviele der alten Generation von Bürohengsten auch mit Brille rum). Aber beim spielen merkt man davon überhaupt nichts und sollte sich da einer was einbilden ist das meist nur psychosomatisch.
 
@Manuel1985 / Ja, der Preis brachte mich auch zu dem Kauf des BenQs aber nun höre ich immer wieder, dass man mit 100 Hertz doch deutlich besser spielen kann als mit 60 Hertz. Deswegen meine Frage an die Fachmännische Community hier :) Danke dir ;)

@Darklord272 / Dann war der BenQ doch kein Fehlkauf und die ZockerCommunity redet einfach mal wieder zu viel Müll :P Danke für deinen sehr einleuchtend und sehr verständlichen Kommentar.
 
Zuletzt bearbeitet:
Kann vllt sein das ein 100hz Gerät für einen bestimmten Betrachter angenehmer ist, jedoch sollte es bei den "normalen" 60hz TfT´s keine Probleme geben !
 
Mehr als 60Hz macht erst einen Unterschied wenn deine Grafikkarte auch mehr Bilder rendern kann.
Wenn das nicht der Fall ist, brauchst du dich gar nicht weiter damit beschäftigen.

Wenn dein Rechner mehr als 60Bilder schafft, dann kann ein 120Hz Monitor auch mehr darstellen. Du würdest diese Zwischenbilder daher auch sehen und die Bewegung ist weicher, wobei man das eigentlich nicht sehen kann, da das menschliche Auge im Idealfall gerade mal 30 Änderungen pro Sekunde wahrnimmt.
Wenn du E-Sportler bist und täglich deine 16 Stunden trainierst und noch unter 20 Jahre in deinem besten Alter bist, könntest du vielleicht einen Unterschied wahrnehmen.
 
Ja ich bin eSportler. Und spiele nur 2 maximal 3 Stunden täglich - muss ja schließlich auch arbeiten :P In der Theorie - hab ich jetzt so verstanden - ist der Unterschied den man wirklich Wahr nimmt nur so minimal, dass es sich nicht lohnen würde, sich einen teureren 100 Hertz Monitor zu kaufen.

Woran erkennt man wie viele Bilder die Grafikkarte Rendern kann?
 
Zuletzt bearbeitet:
Darklord272 schrieb:
Das mit der Bildwiederholfrequenz bei TFT's ist eigentlich B......t. Die 60Hz limitieren z.b. deine Framerate erst wenn du Vsync einschaltest. Aber im Normalfall merkt man bei einem TFT gar nichts, bei Röhrenmonitoren war das anders weil dort die Hz noch angegeben hat mit welcher Frequenz der Elektronenstrahl das Bild aufgebaut hat (wobei 60 Hz da ganz schön tödlich für die Augen waren, darum rennen soviele der alten Generation von Bürohengsten auch mit Brille rum). Aber beim spielen merkt man davon überhaupt nichts und sollte sich da einer was einbilden ist das meist nur psychosomatisch.

Ich geh einfach davon aus, dass du noch NIE Counter-Strike mit 60 Hertz und dann mit 100 Hertz gespielt hast, sonst würdest du hier nicht so einen Bull****t reden. ;)
 
@Darklord272: vollkommener Blödsinn was du geschrieben hast, sorry... (auch dein Profilkommentar übers Netzteil zeugt von...nunja...nicht gerade viel Überlegung in Sachen Hardware)

kleines Beispiel zur Erklärung: 60Hz TFT, guter PC, altes Spiel -> mehr als 100 FPS (Vsync aus)
Wenn man nun Vsync einschaltet, dann synchronisiert er die Frames, die man theoretisch hätte, mit denen, die man ohnehin tatsächlich nur sieht , also 60.
Der Monitor hat auch mit deaktiviertem Vsync (mehr als 100FPS) nur 60 pro Sekunde dargestellt, da er 60 Hz (aktualisierungen pro Sekunde) hat.

Wenn man nun einen 120hz Bildschirm hat, dann würde man immerhin doppelt so viele Aktualisierungen pro Sekunde erhalten, da der Bildschirm sich öfter pro Sekunde aktualisiert.

Die Frage nach der Wahrnehmung ist nicht wirklich zu beantworten, manche sehens, manche nicht.
Ich für meinen Teil empfinde 60hz bei manchen Spielen als unzureichend, da nehme ich dann auch die Steigerung zu meinen 75Hz wahr. Jedoch konnte ich bei einem Freund das gleiche Spiel bei 100Hz sehen, und da war für mich kein Unterschied mehr zu meinen 75Hz


----
unterm Strich:
wenn du Hardcore zockst, dann kauf dir den 100Hz bildschirm, den Unterschied wirst du sehen.
Allerdings reicht für Gelegenheitsspieler auch der günstigere 60Hz Bildschirm

Edit: die Grafikkarte rendert immer so viel wie möglich ist, es sei denn Vsync ist aktiviert, dann rendert sie so viele Bilder um die Hz des Monitors auszunutzen (bei 100Hz Bildschirm versucht sie, 100 Bilder darzustellen). Prinzipiell kann auch eine alte Geforce 2 noch 100+ Frames darstellen, jedoch reicht die Leistung für "aktuelle" Spiele nicht mehr ganz :)
Heisst: solang dein PC die Frames herbekommt, sind mehr Hz besser
 
Zuletzt bearbeitet:
Ne, Mr Jedi den Bullshit verzapfst du, rein biologisch ist es NICHT möglich da einen Unterschied festzustellen, es sei denn, du bist Superman.
 
rein biologisch ist es NICHT möglich da einen Unterschied festzustellen, es sei denn, du bist Superman.

Mit solchen Aussagen wäre ioch vorsichtig. Merke den Unterscheid von 55 zu 65 fps ! Glaubst du mir? ;) Wie denn auch? KANNST DU NICHT ! Das ist vllt wahr aber was und wie Leute etwas wahrnehmen kann man nicht sagen/festlegen.
 
Geb ich dir recht , bei CS bemerkt man als erfahrener Spieler durchaus einen gewaltigen Unterschied .
Aber es stellt sich doch die Frage , ob ein "normaler" FPS Spieler einen wirklichen Unterschied erkennt .
Und da ist meine Antowort , klip&klar nein !

@joop111
lass mich raten , du hast dir diesen Benq zugelegt ?


mfg
 
Ja, den hat er.

Und wir spielen beide auch CS, und da merkt man es.. ^^ Bin dann wohl Superman. Dankeschön. :)

Grüße
 
Die Behauptung weiter oben das das menschliche Auge nicht mehr als 30 FPS wahrnehmen kann ist schlichtweg falsch, ab ca 20-25 Bildern pro Sekunde wird z.B. ein Film nicht mehr als ruckelig empfunden, dort spielt aber der Unschärfeeffekt eine tragende Rolle. Da heutzutage die Computerspiele gestochen scharf wiedergegeben werden und im Normalfall keine Verwischeffekte auftreten, dürfne es ruhig ein paar FPS mehr sein.

Und wenn mans vom sehen nicht merkt ist es meisst so das man es grad in Shootern beim Movement merkt.

Gab mal vor Ewigkeiten nen netten Artikel in der PCGH und auch im englischen darüber, habe aber die passenden Links grad nicht zur Hand.
 
Schön, dass die Meinungen so weit auseinander gehen :X

Vielleicht belegt irgendwer auch mal seine Antwort?
 
also ich hab noch nen 19" tft und der läuft mit 75 hz 1280 x 1 024, hab das jetzt mal mit 60 hz getestet, mit 75 hz ist das alles irgendwie flüssiger, auch wenn man den mauszeiger bewegt merke ich das. ein kollege von mir merkt den unterschied nicht... ist halt bei jeden anderes
 
Belegen wird etwas schwer , schließlich ist das Ganze auch mit von deinem Alter und deinen Genen abhängig .
Wir Menschen sind nicht alle gleich .

Das Beste wäre , wenn du mir mal ein 120HZ Monitor bestellst (beachte die 2Wochen) und ein Game spielst mit möglichst viel fps , z.b. CS:S .
Dann schließt einmal deinen Benq an und den Anderen .
Wenn dir ein "extremer" Unterschied auffällt , musst halt in den sauren Apfl beissen und dir nochmal einen Neuen zulegen .

mfg
 
Einstein1994 schrieb:
also ich hab noch nen 19" tft und der läuft mit 75 hz 1280 x 1 024, hab das jetzt mal mit 60 hz getestet, mit 75 hz ist das alles irgendwie flüssiger, auch wenn man den mauszeiger bewegt merke ich das. ein kollege von mir merkt den unterschied nicht... ist halt bei jeden anderes

Aber man muss doch irgendwie belegen können, dass es so oder so ist. Natürlich kommt das auch auf die Person selbst an, aber es muss doch wissenschaftlich etwas geben, dass das eine oder andere Kommentar entkräftet / verstärkt :x
 
ich zitiere hier einfach mal Wikipedia (verflucht mich ruhig dafür, aber ich bin wenigstens nicht Guttenberg).

Bei der Video- bzw. Bewegtbildwiedergabe wird die physiologische Eigenschaft des menschlichen Sehvermögens ausgenutzt, dass sich Änderungen des Bildinhaltes mit dem im Millisekundenbereich weiterbestehenden Nachbild des vorherigen Bildinhaltes vom Seheindruck her vermischen.
Hier ist eine Unterscheidung zwischen Bildrate und Bildwiederholfrequenz wichtig, da diese nicht identisch sein müssen. Die Bildrate sollte einen Wert von ca. 20 Bildern/Sekunden nicht unterschreiten, um dem menschlichen Auge bei bewegten Bildinhalten einen flüssigen Bildeindruck vermitteln zu können. Dabei ist die Grenze zur Wahrnehmung einer fließenden Bewegung von Mensch zu Mensch leicht verschieden. Die heute im Kino übliche Bildrate von 24 Hz begrenzt die Bewegtbilddarstellung, was dazu führt, dass sich Objekte, die sich mit ungünstiger, mittlerer Geschwindigkeit auf dem Bild bewegen, als „ruckelnd“ wahrgenommen werden. Eine gute Regie weiß das zu vermeiden, indem beispielsweise Kameraschwenks nur sehr langsam oder ausreichend schnell erfolgen. Die Aufzeichnung mit Studiokameras oder Camcordern verwendet das Zeilensprungverfahren, was durch die höhere Bildrate mit 50 bzw. 60 Bewegungsphasen pro Sekunde deutliche Vorteile z. B. bei Sportaufnahmen bietet.
Die Bildwiederholfrequenz eines Bildschirms trägt entscheidend zum Flimmereindruck bei. Das hängt jedoch auch von der verwendeten Bildschirmtechnologie ab. So wird beispielsweise im Kino jedes der 24 Bilder pro Sekunde (= 24 Hz Bildrate) zweimal mit einem Shutter projiziert, also mit einer Bildwiederholfrequenz von 48 Hz abwechselnd an und dunkel geschaltet. Bei Flüssigkristallbildschirmen hingegen wirkt sich die Bildwiederholfrequenz kaum auf den Flimmereindruck aus, da prinzipbedingt die Helligkeit jedes Bildpunktes zwischen den Bildwechseln nahezu konstant bleibt, was Hell-Dunkelwechsel vermeidet. Bemerkenswert ist, dass das menschliche Sehvermögen in den Außenbereichen durch die Stäbchen empfindlicher bei Helligkeitsänderungen reagiert. Flimmern wird daher eher wahrgenommen, wenn man z. B. einen Röhrenmonitor aus einem Augenwinkel betrachtet.
Für schnell bewegte Bilder (Sport, Videospiele, etc.) haben Bildschirmtechnologien Vorteile, die eine ausreichend hohe Bildwiederholfrequenz mit mind. 50 Hz und eine möglichst kurze Bildpunktleuchtdauer aufweisen. Kathodenstrahlröhrenbildschirme sind hier prinzipbedingt gegenüber LCD-Technologien im Vorteil, da jeder Bildpunkt innerhalb der Bildperiodendauer (= 1/Bildwiederholfrequenz) nur kurzzeitig aufblitzt und somit Bewegungen einen sehr scharfen Bildeindruck beim Betrachter hinterlassen. Im menschlichen Sehapparat entsteht aus diesen kurz aufleuchtenden Einzelaufnahmen eine flüssige Bewegung. Die Forschung im Bereich der LCD-Technik versucht, das durch Techniken wie „scanning backlight“ oder „black stripe insertion“ (Flüssigkristallbildschirm) zu verbessern, was eine effektive Verkürzung der Bildpunktleuchtdauer (wie beim Kathodenstrahlröhrenbildschirm) bewirkt. Natürlich kann dadurch wieder Bildflimmern entstehen, was aber durch eine ausreichend hohe Bildwiederholrate größer ca. 80 Hz nicht wahrgenommen wird. Ein Ansatz der Displayindustrie, die Bewegtbilddarstellung durch die Verkürzung der LCD-Schaltzeit zu verbessern, bringt bei LCD-Schaltzeiten kleiner ca. 10 ms keine sichtbare Verbesserung mehr.

Guckste hier!
 
AMD Ryzen 9 9950X3D2
Zurück
Oben