News Zowie XL2546: BenQs neuer eSports-Monitor kommt mit 240 Hz und DyAc

Der Sweetspot für geschulte Gamer Augen liegt bei etwa 80-90 Hz. Bis dahin merke ich es auch am Desktop (Fenster ziehen). Mag gut sein, dass extrem visuell begabte Personen noch bei 120Hz was merken. Danach hört es aber psychobiologisch auf. So schnell feuern keine Neuronen mehr, und die Selektion unserer Wahrnehmung durch die Verdrahtung beider Sehnerven im mittleren Teil des Gehirns tut ihr übriges (man glaubt es kaum, aber der sensorische Input wird auf ca. 2x16bit heruntergebrochen. Davon "erinnert" unser Gehirn das, was wir sehen. Schon harter Tobak....)
 
Mag ja sein, dass rein physiologisch nicht alles wahrnehmbar ist, das 240hz bietet, aber für mich ist es wie im echten Leben.

Das Analoge Bild, dass durch unsere Augen kommt wird vom Gehirn verarbeitet. (digitalisiert/zu elektrischen Signalen verarbeitet) und somit gefiltert/reduziert.

Die Bildrate bei der echten Welt (Analog) ist theoretisch in Auflösung und Frequenz (HZ/FPS) unendlich.

Das Gehirn verarbeitet und rechnet es runter und man wird nie alles wahrnehmen können, was theoretisch in jeder Sekunde des Lebens passiert. Bei schnellen Bewegungen geht einem auch schon mal im echten Leben etwas verloren.

Beschränkt man nun das was das Auge theoretisch sehen kann mit einem Monitor, dann sehen wir, dass es flackert oder ruckelt. Bei 144Hz oder 240Hz sieht man es bei schnellen Bewegungen nicht mehr, weil theoretisch die Bildrate vom Gehirn herunter gebrochen wird.

Allerdings ist es so. Bei schnellen Spielen kommt es meist auf Millisekunden an, die dann zu einer reflexartigen Reaktion des Spielers führt. Zwischen 144Hz und 240Hz (gehen wir davon aus, die Grafikkarte liefert auch genügend Frames) besteht also ein theoretischer Unterschied in der Anzahl der wahrnehmbaren Informationen.

Selbst wenn ich also nur deutlich weniger in der Lage bin zu verarbeiten, so kann es doch sein, dass auf einem 240Hz Monitor genau der Frame mehr angezeigt wird, den mein Gehirn in genau diesem Augenblick verarbeitet und dann in einer kürzeren Reaktionszeit meinerseits endet.

Natürlich werden diese selten auftretenden Unterschiede zwischen 144Hz und 240Hz nur selten einen echten Unterschied machen, spürbar ist dadurch allerdings sogar der unterschied zwischen 120Hz und 144Hz.

Ich hoffe der ein oder andere versteht, was ich damit sagen will. War ein heißer Tag :freak:
 
Ich habe jahrelang Competitive CS auf halbwegs hohem Amateur Level gespielt. Ihr müsst bedenken, wenn man so ein Spiel über einen längeren zeitraum 8h+ am Tag suchtet, entwickelt man ein ganz anderes Feeling für das Spiel wie es der Otto-Normal-Gamer hat, der vielleicht auf 10h pro Woche kommt. Jeder Schuss sitzt, jeder Move sitzt. du movest und aimst ganz anders, weil du im Spiel wirklich "drin" bist.

Mittlerweile spiele ich nur noch sehr selten 0-10h pro Woche. Ich kenne bisher nur 144hz, aber für mich ist selbst heute der Unterschied zu 60hz wie Tag und Nacht. Das Bild ist deutlich smoother, aber auch das Aiming/Mausgefühl ist direkter. Ich bin mir ziemlich sicher, wenn man sehr viel Competitive spielt ( wie gesagt ich rede von 30h pro Woche aufwärts) wird man den Unterschied von 144hz zu 240hz auch spüren, wenn auch nicht so extrem wie von 60-144.

Mich regt es immer auf wenn Leute ihre theoretischen Rechnungen über die menschliche Reaktionszeit auspacken, aber selbst nie Competitive gespielt haben. Es geht hier nicht darum dass du den Gegner 3ms schneller siehst, es geht um ein smoothes und vor allem direkteres Spielgefühl/Maushandling. Das macht den "normalo/casual " vermutlich kein Stück besser aber dem "pro" bringt es halt wieder einen geringen Vorteil.
 
  • Gefällt mir
Reaktionen: robin631
Brathorun schrieb:
Jetzt mal Hand aufs Herz. Wo liegt eigentlich die grenze des Sichtbaren?
Bewegte Bilder Flimmern mit 24 FPS über den TV. Konsolenspieler waren Jahrelang mit 30 FPS zufrieden, PC Gamer schwörten auf 60 FPS. Dann kam einer um die Ecke und meinte Pro-Gamer bräuchten 144 FPS. Für VR liegt die Grenze bei 90 FPS - die PSVR legt noch 30 drauf und liefert Bilder mit 120 FPS.

Und jetzt 240 FPS. Sinn? Unsinn?
Verwechsle ich grad FPS mit Hz?

Bei mir ist es so, dass ich ab ca. 85-90 FPS kaum bis keinen Unterschied mehr wahrnehme
 
Also wenn die 240 Hz in Wirklichkeit nur 120 Bilder/sec und 120 schwarz/sec sind, hätten wir das schon bei dem 240 Hz Eizo FG2421 um den selben Preis aber mit unglaublichem 5000:1 Kontrast VA Panel... Dass die für einen FHD TN Monitor heutzutage so viel verlangen ist eine Frechheit.
 
fraggom schrieb:
Ich habe jahrelang Competitive CS auf halbwegs hohem Amateur Level gespielt. Ihr müsst bedenken, wenn man so ein Spiel über einen längeren zeitraum 8h+ am Tag suchtet, entwickelt man ein ganz anderes Feeling für das Spiel wie es der Otto-Normal-Gamer hat, der vielleicht auf 10h pro Woche kommt. Jeder Schuss sitzt, jeder Move sitzt. du movest und aimst ganz anders, weil du im Spiel wirklich "drin" bist.

this.

2008 hatte ich mir nen LG mit 60hz geholt (damals der "beste" TFT für shooter)....
am ende hatte ich meinen alten CRT noch zusätzlich dran, wegen 120hz.
am TFT & 60hz sah es für mich "ruckelig" aus, wie als hätte ich konstant 30fps - die maus war einfach nicht direkt.

man kann sich an die 60hz gewöhnen und man spielt deswegen nicht deutlich schlechter, aber man merkt es besonders bei games wie quake (lightning gun/shaft zu treffen wird schwerer).

120hz am TFT war dann ne offenbarung, auch wenn man hier noch motion blur hat.
benq's DyAc eliminiert aber auch blur, somit hat man effektiv wieder CRT quali. (ging zuvor auch mit lightboost/blurreduction - aber mehr crosstalk).

zu den fps:
die fps "merkt" man auch oft, dass es sich deutlich direkter spielt.
150fps oder 90fps, ist da nochmal ein guter unterschied.
 
Blood011 schrieb:
Ja das hat aber nix mit den Hz zu tuhen die drücken im meistenfall die verzögerung nicht egal ob TN,IPS,VA

Verstehe ich ehrlich gesagt nicht ganz. Mein 60-Hz-Monitor stellt ca. alle 16,7 ms ein neues Bild dar. Wenn nun kurz nachdem er das Bild dargestellt hat, etwas neues passiert (und mein Rechner schnell genug ist, d.h. meine Grafikkarte auch ein neues Bild bereitstellt), dann dauert es mindestens 16,7 ms bis der Monitor dieses neue Bild überhaupt darstellt.

Bei einem 240-Hz-Monitor wird alle 4,167 ms ein neues Bild dargestellt. Dementsprechend ist die Verzögerung bei solch einem Monitor auch geringer (wenn wir davon ausgehen, dass ansonsten alle anderen Parameter identisch zum 60-Hz-Monitor sind), oder?

Und ganz davon abgesehen sind bei einem TN-Panel doch niedrigere Reaktionszeiten möglich als bei einem IPS-Panel, oder irre ich mich?
 
Ja aber Schaltzeiten sind keine Verzögerung.

Nicht mit dem Gesamtlag vergleichen wir reden hier nur von der Verzögerung.

Und die ist da am wichtigsten und die lässt sich nicht beeinflussen von mehr Hz.

Also z.b haste 0,9 ms verzögerung und ne mittlere Latenz von 5MS(schaltzeit) macht 5,9MS Gesamtlatenz aber der wichtige wert sind in dem Fall die 0,9ms das beeinflusst die eingabe und ist mit hz nicht zu drücken.

D.h wenn du 2 Monitore hast die beide 0.9ms haben der eine aber 144hz und der andere 60hz müssten beide genau gleich abfeuern.
Auf den 144hz ist das ganze nur smoother da das Bild öfters refresht wird als 60Hz und dann kommt das direkter rüber in dem fall jetzt alle 4ms statt 16,xx
 
Zuletzt bearbeitet:
Mir ist nun nicht ganz klar ob der Monitor 240hz entgegennehmen und somit 240fps darstellen kann oder ob er 120hz entgegennehmen kann und die 240hz sich nur auf das Panel beziehen wenn dieses jeweils ein Schwarzbild einfügt.
Und wenn es auch 240hz entgegennehmen kann, wären es bei Schwarzbildeinfügung dann zwangsläufig 480hz am Panel?
 
Blood011 schrieb:
Nicht mit dem Gesamtlag vergleichen wir reden hier nur von der Verzögerung.

Also ich rede (wie ich oben geschrieben habe) eigentlich schon von der Gesamtverzögerung. Also von "es passiert etwas" (Eingabe des Spielers, neues Datenpaket vom Server...) bis zu "Monitor stellt diese Veränderung in einem neuen Frame dar".

Blood011 schrieb:
Also z.b haste 0,9 ms verzögerung und ne mittlere Latenz von 5MS(schaltzeit) macht 5,9MS Gesamtlatenz

Das ist beim einem einzelnen Frame so, okay. Und wie ist es wenn danach dann der nächste Frame gezeigt werden soll? Da müssen doch die 60 bzw. 240 Hz mit reinspielen? Im einen Fall sind es mindestens 16,7 ms die es dauert (inklusive der anderen Verzögerungen), im anderen Fall nur 4,167 ms. Oder etwa nicht?


@IDukeI: Ich denke es handelt sich um "echte" 240 Hz.
 
D.h wenn du 2 Monitore hast die beide 0.9ms haben der eine aber 144hz und der andere 60hz müssten beide genau gleich abfeuern.
Nö, Zorror hat schon recht mit seiner Anmerkung direkt nachdem "etwas neues passiert". Kommt dein Ziel ins Fadenkreuz siehst du das bei niedriger Hz erst 10-15 MS später (nicht die welt). Wenn der Gegner einen schnelleren Monitor hat, dann hat er einen kleinen Vorteil.

Es gibt 3 wichtige Faktoren was die Ausgabe betrifft.
Delay - Wie lange braucht der Monitor/Controller um das Videosignal zu verarbeiten
Reaktionszeit des Panels - wie lange braucht das Panel, um das verarbeitete Signal auszugeben
Refreshrate - in Kombination mit der Reaktionszeit. Wie oft wird ein Bild überhaupt ausgegeben.

Es bringt mir halt nichts, wenn Delay und Reaktionszeit Ultra niedrig sind, die refreshrate aber bei 10Hz ist.
Ebenso bringt es aber auch nichts, wenn die Refreshrate bei 240Hz ist dafür aber delay und Reaktionszeit sehr hoch. Damit spiele ich dann "in der Vergangenheit". Der Gegner siehts einfach früher.

Es wäre mal schön zu wissen, ob es nicht sinnvoller ist in Schwarz/Weiß zu zocken!^^ Bei Counter Strike spielt die grafik eh keine rolle.
 
Zuletzt bearbeitet:
Brathorun schrieb:
Jetzt mal Hand aufs Herz. Wo liegt eigentlich die grenze des Sichtbaren?
Bewegte Bilder Flimmern mit 24 FPS über den TV. Konsolenspieler waren Jahrelang mit 30 FPS zufrieden, PC Gamer schwörten auf 60 FPS. Dann kam einer um die Ecke und meinte Pro-Gamer bräuchten 144 FPS. Für VR liegt die Grenze bei 90 FPS - die PSVR legt noch 30 drauf und liefert Bilder mit 120 FPS.

Und jetzt 240 FPS. Sinn? Unsinn?
Verwechsle ich grad FPS mit Hz?

​Nein, FPS und Hz sind nicht das Selbe und du brauchst auch keine 120 FPS um einen Vorteil von 120 Hz zu haben. Diesen Fehler machen alle die keine Ahnung davon haben.

​Wie Wahrnehmung ist auch Übungssache. Wenn du beispielsweise nicht nur viel, sondern auch sehr gut Ego-Shooter spielen kannst, dann wirst du eher den sehr großen Vorteil von 120 Hz im Vergleich zu 60 Hz sehen als jemand der nur in der unteren Liga CounterStrike spielt oder sogar nur Handyspiele und WoW kennt, etc.

​Als ich das erste Mal 120 Hz getestet habe (mit nur 50-80 FPS), habe ich einen Unterschied wie Tag und Nacht bei Spielen wie Battlefield, EVE Online, Path of Exile, etc. gesehen.
​Bei Battlefield konnte ich das erste Mal besonders auf weite Distanz andere Jets erkennen, während ich mit meinem Jet in einem kleinen Radius gekreist bist. Vorher war alles leicht verschwommen und kleine Details unsichtbar, mit 120 Hz konnte ich plötzlich alle diese Details sehen.
​Bei EVE Online konnte ich als "Explorer" beim Scannen von Anomalien sofort die deutlich flüssigere Darstellung der Probes sehen, außerdem war das Verschieben dieser sehr auch sehr viel flüssiger.
​Bei Path of Exile konnte ich mit schnellen Charakteren sogar beim Vorbeilaufen alle Details von Monstern, Bäumen, Pflanzen, etc. erkennen, während die bei 60 Hz alle verschwommen waren.

​Nach ein paar Tagen, als ich wieder meinen 60 Hz Monitor nutzte, sag alles permanent ruckelig aus. Alles war verschwommen, hat geruckelt, etc. als hätte man keinen Grafikkartentreiber installiert.
​Sogar das Verschieben der Maus auf dem Desktop war total hässlich.

Deshalb merke ich schon ab den ersten paar Sekunden, ob ich an einem 120 Hz oder 60 Hz Monitor sitze. Ich brauche nur die Maus kurz zu bewegen und wenn die ruckelig und verschwommen ist, sind das 60 Hz.
​Absoluter Horror sind für mich Konsolenspiele, welche nur mit 30 FPS auf 60 Hz Fernseher laufen. Da bekomme ich fast schon Augen- und Kopfschmerzen, weil ich mich anstrengen muss allem zu folgen.


​Der größte Faktor bei schnellen Monitoren ist aber nicht die Reaktionszeit, sondern der InputLag!
​Der Monitor kann von weiß auf schwarz in nur 0,00001 ms und trotzdem total schlecht sein, wenn zwischen physischer Mausbewegung und der Mausbewegung auf dem Monitor zu viel Zeit vergeht. Zu viel sind bereits 30 ms für mich. 50 ms sind schon eine Katastrophe und Fernseher mit 100 oder 150 ms ein Alptraum. Sogar Office oder einfach nur im Internet surfen könnte ich mit einem so hohen InputLag nicht mehr, ohne dass es mich stört.
 
Zuletzt bearbeitet:
Sorry, das ist nach wie vor nicht der richtige Ansatz zum Umsatz machen!
FreeSync / GSync das ist doch Mist, entweder die Monitore können beides oder keins.
Ich möchte mich nicht auf eine Marke festlegen, dann bleibe ich lieber bei meinem 60Hz HD Monitor.

Sollte mordgen AMD mit Vega tatsächlich einen P/L Hit landen, dann bin ich eh wieder im roten Lager!
Und übermorgen kann es schon wieder ganz anders sein!

Da kaufe ich mir doch nicht einen Monitor für 500.- um dann an AMD oder nVidia gebunden zu sein! Oder?
Ergänzung ()

Sorry, das ist nach wie vor nicht der richtige Ansatz zum Umsatz machen!
FreeSync / GSync das ist doch Mist, entweder die Monitore können beides oder keins.
Ich möchte mich nicht auf eine Marke festlegen, dann bleibe ich lieber bei meinem 60Hz HD Monitor.

Sollte mordgen AMD mit Vega tatsächlich einen P/L Hit landen, dann bin ich eh wieder im roten Lager!
Und übermorgen kann es schon wieder ganz anders sein!

Da kaufe ich mir doch nicht einen Monitor für 500.- um dann an AMD oder nVidia gebunden zu sein! Oder?
 
joel schrieb:
Da kaufe ich mir doch nicht einen Monitor für 500.- um dann an AMD oder nVidia gebunden zu sein! Oder?

ich habe einen 250€ 144hz freesync Monitor, betreibe ihn mit einer 980Ti und habe mich somit nicht an einen Hersteller gebunden. Ich weiß nicht wie das bei Gsync ist aber ich glaube das man dort auch 144Hz nutzen kann ohne eine NV GPU zu haben, oder? Bei Freesync ist es auf jeden Fall so und ich könnte auch nie wieder zurück zu 60Hz, vorher würde ich mit dem Zocken aufhören!

PS.: weil ich's vorhin gelesen habe. Bei 60fps hat man den 144hz Vorteil auch, es ist immer etwas smoother als mit nur 60Hz. Mit Free- oder G-sync sollte es dann noch einen größeren unterschied ausmachen, aber im Grunde ist beides besser als 60Hz, das eine nur mehr als das andere. So habe ich das ganze im Kopf, bitte bessert mich aus wenn ich etwas missverstanden haben sollte.
 
Zuletzt bearbeitet:
Also hast du einfach nur einen 144 Hz Monitor, weil FreeSync bei NVIDIA einfach nicht aktiv ist.

​AMD war bisher immer schlechter als NVIDIA für meine Anwendungen, daher habe ich nie in Richtung AMD blicken müssen.
Der Treiber-Support ist bei AMD einfach eine Katastrophe. Mit NVIDIA kann ich wenigstens CUDA nutzen, mit der Grafikkarte in Blender rendern kostet nur einen kleinen Bruchteil der Zeit. Auch Spiele erhalten schneller Treiberoptimierungen von NVIDIA.

​Es ist für mich einfach nur merkwürdig, warum es mehr Freesync Monitore gibt, obwohl die meisten auf NVIDIA setzen.
​Als Hersteller sollte ich doch diesen Vorteil verkaufen wollen und den kleinen AMD Anteil zu bedienen würde sich für mich nicht so lohnenswert anhören.
 
Also ich stelle Motion Blur einfach in den Optionen der Spiele ab ;)
 
Highspeed Opi schrieb:
​AMD war bisher immer schlechter als NVIDIA für meine Anwendungen, daher habe ich nie in Richtung AMD blicken müssen.
Der Treiber-Support ist bei AMD einfach eine Katastrophe. Mit NVIDIA kann ich wenigstens CUDA nutzen, mit der Grafikkarte in Blender rendern kostet nur einen kleinen Bruchteil der Zeit.
OpenCL?
680px-Timings.png Source

Highspeed Opi schrieb:
Auch Spiele erhalten schneller Treiberoptimierungen von NVIDIA.
Mittlerweile ist AMD auf Augenhöhe, wenn Nvidia nicht gerade ihren proprietären Müll in Spiele integriert hat.
Highspeed Opi schrieb:
​Es ist für mich einfach nur merkwürdig, warum es mehr Freesync Monitore gibt, obwohl die meisten auf NVIDIA setzen.
​Als Hersteller sollte ich doch diesen Vorteil verkaufen wollen und den kleinen AMD Anteil zu bedienen würde sich für mich nicht so lohnenswert anhören.
Vielleicht wollen sich die Hersteller nicht an Nvidia proprietäre Technik binden? Die GSync-Module müssen bei Nvidia teuer gekauft/lizenziert werden. Dabei wäre es für Nvidia so einfach FreeSync Support in den Treiber einzubauen, in GSync-Notebooks funktioniert das ganze komischerweise ohne extra Modul.
 
@yast:
​Ganz grob Überflogen:
Du zeigst mir eine Grafik über OpenCL obwohl sogar in deiner Quelle steht Zitat: "OpenCL works fine on NVIDIA cards, but performance is reasonably slower (up to 2x slowdown) compared to CUDA, so it doesn't really worth using OpenCL on NVIDIA cards at this moment."?

​Es Zeit fürs Rendern hängt von vielen Faktoren ab, diese muss man zuerst kennen und anschließend dahingehen anpassen.
​Neben den ca. 20 Faktoren nur in Blender bzw. der erstellen Szene selbst, kommt es sogar darauf an, welches Betriebssystem man nutzt oder auf die Architektur der Grafikkarte.
​Alleine schon die Tatsache, dass es keine Grafikkarte von AMD gibt, die exakt die selbe Leistung wie eine NVIDIA Grafikkarte hat, lässt einen Direktvergleich nicht zu. Man vergleich immer eine etwas bessere Grafikkarte gegen eine etwas schlechtere Grafikkarte und da ich von Treibersupport geschrieben habe, ist es wie ein Vergleich mit Äpfel und Birnen. (diesen Vergleich scheinen bei ComputerBase Einige wohl zu lieben)

​Ein 1:1 Vergleich ist damit faktisch unmöglich.
Und wie ich geschrieben habe: " ... für meine Anwendungen ... ", diese bestehen aus mehr als nur Blender, zumal Blender-Projekte für mich nur ein kleines Nebenhobby wie Photoshop ist. Hauptsächlich beteilige ich mich an der Bereitstellung von kostenlosen Texturen, Materials, Shaders, etc.

​Mein NVIDIA vs AMD Vergleich basiert also hauptsächlich auf Erfahrungen von vielen anderen Nutzern, welche ich mit Meinen gegenüberstelle. Einen direkt Vergleich (also mein PC mit jeweils NVIDIA XY und AMD XY) habe ich niemals gemacht. Einfach weil aus oben genannten Gründen es keinen Sinn machen würde.
 
Das könnte unter Umständen mal der erste TFT werden, der zum zocken auch geeignet ist. Nach meinem CRT damals kamen einige TFTs, laut tests, infoplattformen und empfehlungen "einer zum zocken besser geeignet als der nächste". Das neueste Exemplar ist ein auch schon etwas älterer Eizo Foris FS2333. Davor war es ein Samsung Syncmaster; Beide sind aktuell noch im Dienst. Allerdings muss ich sagen dass ich gerade vom Eizo, der ja laut prad und anderen tests ein super ips panel haben soll, derbe enttäuscht bin. Für LoL, Diablo3, The Division oder Starcraft II alles ok. Aber Ego Shooter gehen auf dem ding definitiv gar nicht. Inzwischen verwende ich den älteren Samsung Syncmaster mit 120hz und nur 1680x1050 bei allem was sich irgendwie etwas schneller spielt. Overwatch, PUBG oder QC auf dem Eizo sind eine Qual. Nicht, dass es nicht spielbar wäre, aber genau der im Werbevideo so toll dargestellte Motion Blur macht es unmöglich überhaupt was zu erkennen, wenn man den Mauszeiger bewegt. Allerdings ist es natürlich genauso grässlich für unterschiedliche Spiele auf TN/IPS zu switchen. Der Unterschied ist eben bei den Farben enorm. Wenn das Feature aber wirklich das Bild so "aufklart" wie im Video, wäre es definitiv ein must-have für mich. Und würde ständiges Monitorumhergeschiebe überflüssig machen.
 
Brathorun schrieb:
Jetzt mal Hand aufs Herz. Wo liegt eigentlich die grenze des Sichtbaren?
Bewegte Bilder Flimmern mit 24 FPS über den TV. Konsolenspieler waren Jahrelang mit 30 FPS zufrieden, PC Gamer schwörten auf 60 FPS. Dann kam einer um die Ecke und meinte Pro-Gamer bräuchten 144 FPS. Für VR liegt die Grenze bei 90 FPS - die PSVR legt noch 30 drauf und liefert Bilder mit 120 FPS.

Und jetzt 240 FPS. Sinn? Unsinn?
Verwechsle ich grad FPS mit Hz?

Deine Angaben beziehen sich aber schlicht auf ein Minimum, welches meist aus wirtschaftlich/technischen Gründen gewählt wird/wurde.

Als Filmmaterial noch teuer war, hat man sich auf das verträglichste Minimum geeinigt und das waren dann 24 Bilder pro Sekunde, ausschlaggebend war hier die Qualität des Tons. Anfangs war man meist bei 16 oder gar 40 Frames und über die Jahre näherte man sich der 24 an.
Jetzt im digitalen Zeitalter werden viele Filme weiterhin aus wirtschaftlichen (Licht und Technik) sowie cinographischen Gründen in 24 Bildern produziert. Technisch sind aber auch höhere Raten möglich (Hobbit 48 FPS, Billy Lynn's Long Halftime Walk 120 FPS). Es kommen auch Techniken mit deutlich höheren Raten 100-300FPS zum Einsatz, welche dann einfach auf das Zielformat runtergerechnet werden.
VR wünscht sich Frameraten jenseits der 1000 um "Motion Sickness" möglichst zu eliminieren, dass ist aber im Konsumerbereich noch nicht machbar.
Bei den Konsolen und PCs sind wir wieder bei den Anfangs technischen und wirtschaftlichen Grenzen gewesen.

Und am Ende sind dann FPS auch nicht gleichzusetzen mit Hz. Vereinfacht liefern die FPS die Information, während die Hz Zahl also die Bildwiederholrate die Qualität der Darstellung bestimmt.

PS Das Auge kann bestimmte Änderungen bei mehr als 500 FPS wahrnehmen.
 
Zuletzt bearbeitet:
Zurück
Oben