Benchmarks: Leistungsaufnahme mit VSync

Status
Für weitere Antworten geschlossen.
darkfate schrieb:
Was die Augen angeht so sind 25fp/s der Punkt, an dem der Mensch eine Bewegung als absolut flüssig wahrnimmt und somit für die meisten völlig ausreichend. Die Obergrenze liegt bei 65Hz.
Oh man :freak:

65 Hz? Ich werf mich weg ...
 
y33H@ schrieb:
Oh man :freak:

65 Hz? Ich werf mich weg ...

Lesen bildet. Dann kommt man nicht auf die Idee mit sinnlosen Aussagen um sich zu werfen. Aber natürlich weiß ein seit 10 Jahre EGO Shooter Spielener mehr als geschultes Personal..
 
@ y33H@

War die Reaktionszeit der Bildschirme über den gesamten Farbraum und der Input-Lag vergleichbar bzw. in welchen Regionen haben sie sich bewegt?
Zwischen welchen Hertz-Zahlen bzw. FPS habt ihr denn getestet und wie oft und bei wie vielen Personen haben die Tests stattgefunden?
Das maximale zeitliche Auflösungsvermögen des menschlichen Auges liegt bei ca. 80 Hz (bei Fliegen liegt es bei ca. 240 Hz, aber deren Augen sind komplett anders aufgebaut. Auch hängt das Auflösungsvermögen von anderen Faktoren wie Helligkeit ab). Von daher wäre das Erkennen des Unterschieds zwischen 60 Hz und 120 Hz möglich.

In meinen Augen wäre ein ausführlicher, gut geplanter und durchgeführter Test dieses Aspekts interessanter, als der hundertste Test einer Grafikkarte. Vielleicht kann sich ja mal hier oder bei PCGH ja jemand dazu durchringen.


@ darkfate

Wenn man einen Test protokolliert und somit auch reproduzierbar macht, dann ist er wissenschaftlich. Wie aussagekräftig dieser dann ist, lässt sich aus dem Protokoll abschätzen.
 
Ach darkfate lass es gut sein - hier im Forum gibt es auch Leute, die zwischen 150FPS und 300 FPS einen Unterschied sehen. (und das ist definitiv unmöglich)

Dass es sich irgendwie anders anfühlt, mag ich auch nicht so recht glauben, da der TFT sowieso nur mit 60Hz ein neues Bild zaubert. (oder eigentlich das aktuelle entsprechend dem Input modifiziert)
 
Seppuku schrieb:
Das maximale zeitliche Auflösungsvermögen des menschlichen Auges liegt bei ca. 80 Hz

Nenne mir bitte eine seriöse Quelle. Kein Pinkelpedia oder irgend ein Blog. Ansonsten ist es wieder nur heisse Luft.

Seppuku schrieb:
Wenn man einen Test protokolliert und somit auch reproduzierbar macht, dann ist er wissenschaftlich. Wie aussagekräftig dieser dann ist, lässt sich aus dem Protokoll abschätzen.

Nur wenn etwas protokolliert und reproduzierbar ist, ist es lange keine Wissenschaft. Mit so einem Vortrag wirst du nirgendwo akzeptiert. Wenn es doch mal klappt, dann wird man dich in den ersten fünf Minuten schon mit Fragen löchern und dich bitten zu gehen. Zurecht, ein solches Szenario muss durchgeplant sein, am besten von mehreren unabhängigen Wissenschaftlern zu den passenden Gebieten.. alles andere ist Verschwendung der wertvollen Zeit.
Ergänzung ()

Sherman123 schrieb:
Ach darkfate lass es gut sein - hier im Forum gibt es auch Leute, die zwischen 150FPS und 300 FPS einen Unterschied sehen. (und das ist definitiv unmöglich)

Dass es sich irgendwie anders anfühlt, mag ich auch nicht so recht glauben, da der TFT sowieso nur mit 60Hz ein neues Bild zaubert. (oder eigentlich das aktuelle entsprechend dem Input modifiziert)

Man lernt nie aus. Vielleicht wachsen einem, wenn man 10 Jahre EGO Shooter gespielt hat, Facettenaugen? Dann ergibt das ganze natürlich Sinn. ;)
 
Zuletzt bearbeitet:
@ darkfate

Natürlich ist das wissenschaftliches Arbeiten... Was denn sonst?
Wie stellst du dir denn bitte wissenschaftliches Arbeiten vor? Nur ob das Ergebnis der Arbeit wirklich aussagekräftig ist oder ob es von anderen Wissenschaftlern akzeptiert wird oder nicht, hängt von den berücksichtigen Faktoren, der statistischen Aussagekraft und der Art der Durchführung ab.
Da sich aber diese Faktoren ohne weiteres nachvollziehen lassen, gibt es ja kein Problem.
Oder glaubst du, dass bei jedem Paper, welches veröffentlicht wurde, erstmals alle Spezialisten des Landes einberufen wurden? Da muss ich dich leider enttäuschen...

Ich meine mich zu erinnern, die Zahl als Maximalwert während meines Studiums gehört zu haben. Wie gesagt, sie ist abhängig von der Helligkeit und Wellenlänge.
 
Seppuku schrieb:
Natürlich ist das wissenschaftliches Arbeiten... Was denn sonst?
Nein ist es sicherlich nicht. Wenn es sich feststellt, dass du an irgend einer Stelle auch nur ein bisschen geschlampt hast, wird diese Arbeit als Gesamtwerk mit Sicherheit verworfen, weil das Ergebnis höchstwahrscheinlich dadurch verzerrt werden konnte. Versuch doch mal halbherzigen Bockmist bei Nature einzureichen. Man sperrt dich für den Rest des Lebens aus der Zeitschrift aus. Aus gutem Grund, weil sich die Leute Zeit nehmen es durchzulesen. Man will natürlich keinen Schwachsinn lesen während sich andere sprichwörtlich den ** aufreissen um Qualitätsarbeit zu leisten.

Seppuku schrieb:
hängt von den berücksichtigen Faktoren, der statistischen Aussagekraft und der Art der Durchführung ab.
Genau du sagst es doch selber. Findet man darin ein Fehler. Ist die Arbeit praktisch umsonst.

Seppuku schrieb:
Da sich aber diese Faktoren ohne weiteres nachvollziehen lassen, gibt es ja kein Problem.

Können sie eben nicht. Genauso wie du durch deine wilden Spekulationen auf 80Hz gekommen bist ohne einen nachvollziehbaren Beleg zu liefern.

Seppuku schrieb:
Oder glaubst du, dass bei jedem Paper, welches veröffentlicht wurde, erstmals alle Spezialisten des Landes einberufen wurden? Da muss ich dich leider enttäuschen...
Genau so sieht es aus. Wenn es um meinen Beruf geht, oder etwas was ich publiziere oder irgend ein teil an dem ich mitgearbeitet habe, dann wird alles bis zum Schluss durchdacht. Nur dafür gibt es Geld. Das schlampereien schonmal gravierende Folgen haben kann zeigt die Loveparade. Wobei 21 Tote, so tragisch es auch ist, nur ein kleines Übel-Beispiel darstellt.

Seppuku schrieb:
Ich meine mich zu erinnern, die Zahl als Maximalwert während meines Studiums gehört zu haben. Wie gesagt, sie ist abhängig von der Helligkeit und Wellenlänge.
Man man man man. Ich habe es von irgend einem Schwager gehört der seinen Freund gefragt hat dessen Onkel als LKW Fahrer einen Nobelpreisträger für Augen zu seiner Arbeit mitgenommen hat.

Gehts noch?

Das mit der Wellenlängen- und der Helligkeitsabhängigkeit ist mal wieder so eine Aussage.

Merkst du nicht das du mit deinem Unwissen nur Zeit kostest? Man fährt deutlich besser wenn man über Dinge, die einem nicht bekannt sind, keine spekulierten Postulate stellt.

Du verwechselst hier irgendwelche Pseudowissenschaftlichen Blog Artikel und Wikipedia Mist mit publizierter Qualitätsarbeit.
 
darkfate schrieb:
Gehts noch?

Das wird es wohl sein, was deinem Gehirn so zugesetzt hat, dass du solche Äußerungen von dir gibst.

darkfate schrieb:
Aber das Fußvolk wird es immer besser wissen.

darkfate schrieb:
Nenne mir bitte eine seriöse Quelle. Kein Pinkelpedia oder irgend ein Blog. Ansonsten ist es wieder nur heisse Luft.

Man lernt nie aus. Vielleicht wachsen einem, wenn man 10 Jahre EGO Shooter gespielt hat, Facettenaugen? Dann ergibt das ganze natürlich Sinn. ;)

darkfate schrieb:
Man man man man. Ich habe es von irgend einem Schwager gehört der seinen Freund gefragt hat dessen Onkel als LKW Fahrer einen Nobelpreisträger für Augen zu seiner Arbeit mitgenommen hat.

Gehts noch?

Merkst du nicht das du mit deinem Unwissen nur Zeit kostest? Man fährt deutlich besser wenn man über Dinge, die einem nicht bekannt sind, keine spekulierten Postulate stellt.

Du verwechselst hier irgendwelche Pseudowissenschaftlichen Blog Artikel und Wikipedia Mist mit publizierter Qualitätsarbeit.

Ich habe nichts dagegen, wenn man mit Engagement zur Sache geht und eifrig diskutiert. Was aber gar nicht geht, sind solcherlei polemische EInwürfe, die 1. nichts zur Sache beitragen, sondern eher die eigenen Einwände schwächt, 2. den Mitdiskutanten unnötig persönlich angehen, 3. so dermaßen arrogant und überheblich wirken, dass man sich fragen muss, ob diese Form des Umgangs möglicherweise etwas kaschieren soll ...

Wie dem auch sei, abgesehen von einem isolierten Zitat aus einer Einführung in die Physiologie aus dem Jahre 1973, bei der man sich als Laie fragt, ob man unter dem Eindruck sich durchsetzender neuer Technologien seit den 80er Jahren nicht noch neuere Ergebnisse diesbezüglich hätte, habe ich hier noch nicht eine wissenschaftliche Quelle von Deiner Seite gesehen, insbesondere, da Du Dich selbst widersprüchlich ausdrückst:

darkfate schrieb:
Ein Glück das es bereits seit geraumer Zeit wissenschaftliche Versuche gegeben hat, die alle eindeutig nachgewiesen haben, das ab 25fps kein Unterschied feststellbar ist.

Was die Augen angeht so sind 25fp/s der Punkt, an dem der Mensch eine Bewegung als absolut flüssig wahrnimmt und somit für die meisten völlig ausreichend. Die Obergrenze liegt bei 65Hz.

Also gibt es doch Unterschiede zwischen 25FPS und 65Hz, wenn man von einer "Obergrenze" spricht? Wenn man schon die höchsten Ansprüche an andere stellt, dann darf man sie auch an sich selbst stellen, selbst wenn man es mit "Fußvolk" zu tun haben sollte.

Geht das in dem Ton so weiter, wird übrigens geschlossen! Das sollte aber klar sein ...
 
Zuletzt bearbeitet:
rumpel01 schrieb:
Wie dem auch sei, abgesehen von einem isolierten Zitat aus einer Einführung in die Physiologie aus dem Jahre 1973 habe ich hier noch nicht eine wissenschaftliche Quelle von Deiner Seite gesehen

Und der Mensch hat sich nach 1973 so stark verändert? Sicherlich nicht. Es gibt genügend solcher Studien. Nahezu jedes Biologiebuch müsste einige Hinweise dazu haben.

Ich habe i.d.R. auch nichts dagegen zu diskutieren.
Allerdings reagiere ich allergisch auf Unsinn. Solche Leute verunsichern nur die anderen, diejenigen die sich ernsthaft informieren wollen. So verkommt das Internet zu einer Müllhalde.

rumpel01 schrieb:
Also gibt es doch Unterschiede zwischen 25FPS und 65Hz, wenn man von einer "Obergrenze" spricht? Wenn man schon die höchsten Ansprüche an andere stellt, dann darf man sie auch an sich selbst stellen, selbst wenn man es mit "Fußvolk" zu tun haben sollte.

Obergrenze ist in der Tat ein wenig schwieriger Begriff, wie viele die am Computer sitzen haben top gesunde Augen? Bsp: Die Augenleistung verändert sich mit dem Alter und Bildschirmarbeit macht trockene Augen. Rauchen, Stress, wenig Trinken, mangelnde Augenpflege, UV, fehlendes Augentraining, schlechte Schlafzeiten sind nur wenige Negativeinwirkungen auf ein gesundes Auge.
 
Zuletzt bearbeitet:
Warum geht's eigentlich? Ab wann das menschliche Auge Bewegung flüssig wahrnimmt? Ab wann du ein Spiel flüssig bezeichnest? Oder geht's um das Thema, was im Titel steht: Leistungsaufnahme mit VSync?

Zum ersten: Bliblablub subjektiv ...

Zum zweiten: Dass Vsync Einfluss auf die Leistungsaufnahme hat, hat ja dein verlinkter Thread schon gezeigt. Danke dafür. Aber dass sowas in die Grafikkartentests einfließt wage ich zu bezweifeln. Das ist ziemlich aufwendig. Vor allem, wenn man so anfängt, wo soll das enden? Leistungsaufnahme mit AA/ohne? In 1920x1200 oder 1280x1024? Mit high/low Quality? Mit Undervolting? Bei hohen Sommertemperaturen oder lieber winterlich? Vielleicht doch ein paar andere Spiele, die man selbst spielt? Nein! Geh davon aus, dass es mit Vsync weniger ist.
 
@ darkfate

Du forderst von mir ständig Belege, legst selbst aber keine dar...
Wo sind denn deine Quellen für deine Behauptungen?
Und was soll der absurde Hinweis auf Nature? Die wenigsten werden es schaffen dort regelmäßig etwas zu publizieren...
Wenn du zu anscheinend zu einer Arbeitsgruppe gehörst, die am laufenden Band hochdekorierte Paper veröffentlicht, dann Glückwunsch. Das ist in meinem Bereich definitiv nicht die Regel...
Ich würde dir einfach einmal empfehlen, nachzuschlagen, was wissenschaftliches Arbeiten beinhaltet und in wie weit es sich von den von mir beschriebenen Punkten unterscheidet.

Hast du es wirklich nötig mit persönlichen Angriffen, Überheblichkeit und Arroganz zu reagieren, anstelle mit Fakten zu argumentieren? Das ist wirklich ein Armutszeugnis...
Aber ich will mich ja nicht auf dein Niveau herablassen und geben dir einmal ein paar Quellen:
http://www.mcb.harvard.edu/labs/meister/files/meister_files/pdfs/Crevier_1998_PeriodDoubling.pdf
http://www.lti.uni-karlsruhe.de/rd_download/Grundlagen_der_Lichttechnik.pdf (da tauchen übrigens auch die ominösen 80 Hz auf (S 121))
Aber was weiß das Fußvolk schon...
 
Seppuku schrieb:
Du forderst von mir ständig Belege, legst selbst aber keine dar...
Wo sind denn deine Quellen für deine Behauptungen?

Seppuku schrieb:
Hast du es wirklich nötig mit persönlichen Angriffen, Überheblichkeit und Arroganz zu reagieren, anstelle mit Fakten zu argumentieren?

Ich habe die Quelle, auf die ich mich berufen habe schon sehr früh gepostet. Wie man sieht, entspricht sie dem, was Meister & Crevier beobachten konnten.

Seppuku schrieb:
Hast du es wirklich nötig mit persönlichen Angriffen, Überheblichkeit und Arroganz zu reagieren, anstelle mit Fakten zu argumentieren?
So ist es nun mal wenn man etwas sagt, ohne einen Beleg zu liefern. Persönliche Angriffe waren es nicht. Ich möchte mir nicht selbst die Quellen zu jeder Behauptung zusammensuchen. Nachdem ich gemotzt habe, hast du doch etwas interessantes geliefert.
Damit hat das ganze für mich gelohnt, weil ich jetzt auch noch weiß wie man so etwas am besten misst. Die Sache mit der Synchronisierung ist sehr interessant. Noch besser ist die Korrelation zum Salamander. Dafür schon mal meinen Dank!

Zusammenfassung:
http://www.mcb.harvard.edu/labs/meister/files/meister_files/pdfs/Crevier_1998_PeriodDoubling.pdf

"At flash frequencies near 50 Hz, there was little or no perceptible flicker"

"average VEP waveform of subject MM, triggered on the odd flashes over a 100-s recording, at f  16 Hz (top) and 51 Hz (bottom)"

Man untermauert die Ergebnisse mit Publikationen mit vergleichbaren Ergebnissen. Was dennoch ein wenig verwirrend ist:

"At flash frequencies of ‚10–30 Hz, we observed no sub-harmonics in the ERG or the VEP, but human subjects reported dramatic visual illusions: the field broke up into varying geometric patterns that appeared to flicker violently, with neighboring regions flashing in counterphase. "

So wie es hier anklingt, geht es ab 30Hz los. Als abschließendes Urteil:
"One obtains a simple measure of this period-doubling by comparing the power at f with that at the subharmonics (Fig. 8C): period-doublig was strictly limited to the range between 30 and 70 Hz."

Leider fehlt die Angabe zum statistischen Modell von "strictly"

http://www.lti.uni-karlsruhe.de/rd_download/Grundlagen_der_Lichttechnik.pdf

(Ich habe nur 7.11 gelesen) Wenn man die erste und diese Quelle vergleicht, merkt man eine riesige Kluft. Das zweite scheint eher ein Script für Studenten zu sein, in der man alles Pi mal Daumen schätzt, als eine sinnvolle Referenz. Die Sprache ist ist sehr einfach gehalten und die Quellenangaben zumindest in Absatz 7.11 sehr mager. Eine einzige Fremdquelle ist angegeben (Kelly 1961). Die zweite Quelle ist ein Eigenwerk.

In einem zunächst nicht nachvollziehbarem Experiment (was in der Quelle 1 sehr gut beschrieben wurde) kommt er im Mittel auf 80 Hz. Empfiehlt aber 100 Hz ohne Angaben, wie er zu dieser Zahl kommt. Das ist ein wenig ominös. In keinem Fall als Referenz zitierfähig.

In jedem Fall ist die erste Quelle deutlich glaubwürdiger und als einzige zitierfähig. Warum?
-Harvard, Cambridge, Massachusetts > UNI Karlsruhe
-Fachbereich Molecular and Cellular Biology > Lichttechnik
-Quellen CREVIER/MEISTER > Quellen Kokoschka
-Beschreibung CREVIER/MEISTER > Beschreibung Kokoschka
-Statistik & Korrelation CREVIER/MEISTER > Statistik Korrelation Kokoschka (keine)

Was mir jetzt noch aufgefallen ist: Es wird nirgendwo auf eine Wellenlängenabhängigkeit etc. hingewiesen.
 
Zuletzt bearbeitet:
Wieso flimmern dann 60 Hz und 100 Hz werden als fast flimmerfrei angesehen? Wenn doch bei 70 Hz Schluss sein soll? :rolleyes:
 
y33H@ schrieb:
Wieso flimmern dann 60 Hz und 100 Hz werden als fast flimmerfrei angesehen? Wenn doch bei 70 Hz Schluss sein soll? :rolleyes:

Wenn bei 70 Schluss ist, dann ist 100Hz wohl flimmerfrei. Allerdings müssten 75 auch genügen. Bei TFT, nicht beim Röhrenmonitor. Das mit den 60Hz... kann auch psychologisch begründet sein. Ich habe auch eine Abneigung gegen 60Hz weil die Röhrenmonitore mit 60Hz unangenehm waren. Während mein TFT bei 60Hz absolut flimmerfreies Standbild hat.

Wenn du jemanden an ein und den selben Monitor setzt, von dem er weder die Marke kennt, noch die Umrisse des Monitorgehäuses sieht und dann zwischen 60 Hz und 120 Hz unterscheiden lässt, so befürchte ich, dass es ein 50:50 Ratespiel wird. Vorausgesetzt, der Monitor hat entsprechende Qualität und kurze Reaktionszeit über den ganzen Farbraum.

Im Test wurden keine Monitore verwendet, bewusst, um solche Effekte auszuschließen.
 
Zuletzt bearbeitet:
In einem zunächst nicht nachvollziehbarem Experiment (was in der Quelle 1 sehr gut beschrieben wurde) kommt er im Mittel auf 80 Hz. Empfiehlt aber 100 Hz ohne Angaben, wie er zu dieser Zahl kommt. Das ist ein wenig ominös. In keinem Fall als Referenz zitierfähig.

Nachvollziehbar wird es, wenn man zu dem Skript die angegeben Quellen (Kelly 1961 und 1972) heranzieht. Das Diagramm scheint ja aus "Kelly 1972" entnommen zu sein. Die "Eigenquelle" bezieht sich gut erkennbar auf die Formelherleitung von Kokoschka aus Kellys Daten. Daran ist nichts "ominös", eigene Forschungen darf man natürlich heranziehen, daran ist weder etwas anrüchig noch schwächt es die Ergebnisse per se. Wollte man dies in Zweifel ziehen, müsste man "Kelly 1961 und 1972" angreifen, nachdem man das nachgeschlagen hat. Ansonsten sind es empirische Werte, die man erst einmal so nehmen kann. Immerhin hat der Herr Kokoschka für sein Vorlesungsskript bereits entsprechendes ausgewählt. Dem könnte man vertrauen, muss man aber nicht. D.h. aber: man muss die angegeben Quellen lesen, erst dann kann man beurteilen, ob das was im Skript steht, Blödsinn ist oder nicht.

Empfiehlt aber 100 Hz ohne Angaben, wie er zu dieser Zahl kommt. Das ist ein wenig ominös. In keinem Fall als Referenz zitierfähig.

Lies Dir den Abschnitt nochmal durch:

Den Berechnungen lag ein exponentielles Abklingverhalten verschieden schneller Phosphore zugrunde. Danach kann bei hohen Modulationsgraden und hohen Umfeldleuchtdichten die FVF im Mittel 80 Hz und mehr betragen. Um Flimmern auch für junge Personen sicher zu vermeiden, sind daher Bildwiederholfrequenzen von mindestens 100 Hz erforderlich. Die Untersuchungen von Kelly lassen sich für ein ausgedehntes, foveal-beobachtetes Flimmerfeld durch folgende empirische Beziehung beschreiben (Kokoschka, 1989):

Umso höher die Leuchdichte nach dem Diagramm, desto höher die erforderlich Frequenz. Bei ca. 200cd/m² sind es die 80Hz. Der Wert 100Hz ließe sich leicht aus der folgenden Formel gewinnen, wenn man höhere Leuchdichten als im Diagramm angegeben verwendet (z.B. 250cd/m²).

Gerade wenn ich mir als Vertreter eines ganz anderen Faches, d.h. nicht als Naturwissenschaftler, den anderen Aufsatz durchlese, dann erhalte ich den Eindruck, dass dort mit einem anderen Testaufbau und anderen Voraussetzungen andere Ergebnisse erhalten werden. Das erscheint mir durchaus sinnig, aber mir ist nicht klar, inwiefern die einen Ergebnisse den anderen jetzt substanziell widersprechen. Mit simplifizierenden Äußerungen wie "Uni sowienoch ist besser als Uni dazumal" würde ich mich aber zurückhalten. Wissenschaftlicher Wert bemisst sich nicht vorranging an dem Standort, wo Wissenschaft praktiziert wird. ;)
 
Zuletzt bearbeitet:
darkfate schrieb:
Wenn du jemanden an ein und den selben Monitor setzt, von dem er weder die Marke kennt, noch die Umrisse des Monitorgehäuses sieht und dann zwischen 60 Hz und 120 Hz unterscheiden lässt, so befürchte ich, dass es ein 50:50 Ratespiel wird. Vorausgesetzt, der Monitor hat entsprechende Qualität und kurze Reaktionszeit über den ganzen Farbraum.
Aber genau das habe ich ja gemeint, als ich vorgeschlagen habe, einen kleinen verblindeten Test durchzuführen. Deine Anforderungen stehen ja auch in einen meiner vorhergehenden Posts.
Und ein solcher Test sollte für den Zweck einer Computerseite ausreichend sein. Da muss ich keinen Experten der Neurowissenschaften mit im Boot haben damit eine bestimmte Anzahl von Leuten auf einen Unterschied (oder eben keinen) Aufmerksam werden.
Ein passendes Testszenario und eine ausreichend große Menge an Probanden ist dafür völlig ausreichend.
 
Ihr wisst aber schon, dass die Bildwiederholungsrate am Monitor (Hz) rein gar nichts mit der Bildrate in Spielen (FPS) zu tun hat?

Ersteres sagt, wie oft der Monitor das Bild neu aufbaut. Letzteres sagt, wo oft das Bild neu berechnet wird. Das sind zwei unterschiedliche Dinge. Ich verrate nicht zu viel, wenn ich sage, dass man ein Spiel mit 40 FPS und 60 Hz spielen kann. Nur wird dann das neuberechnete Bild nicht synchron zum Bildrefresh des Monitors gesendet. Hier kommt dann Vsync ins Spiel, was die FPS auf ein Vielfaches der Hz reduziert (bei 60 Hz = 60, 30, 15 ... FPS). Deshalb kann Vsync zu Rucklern führen, wenn 60 oder 30 FPS dauerhaft nicht erreicht werden können.

Bei TFTs ist das Thema Bildwiederholungsrate wieder ein ganz anderes. Ihr könnt ja mal in eurem TFT nach Phosphor-Abklingzeiten suchen! ;) Bei Röhrenmonitoren bringt ein Kathodenstrahl das Phosphor Zeile für Zeile zum Leuchten. Sobald der Kathodenstrahl nicht mehr anliegt, erlischt die Leuchtkaft. Also muss wieder neu beschossen werden. Wie oft der Kathodenstrahl das Phosphor beschießt, sagt die Hz-Zahl. Bei 60 Hz tut er das in größeren Abständen als bspw. bei 120 Hz. In der Zeit verdunkelt das Bild und das Auge nimmt das als Flimmern war (besonders gut aus den Augenwinkeln wahr zu nehmen).

Bei TFTs muss kein Phosphor erleuchtet werden. Da gibt es Kristalle, die unter bestimmter Spannung ihre Helligkeit verändern (RGB-Kristalle für jeden Farbpixel; deshalb braucht man bei TFTs auch eine native Auflösung). Diese Kristall behalten aber ihre Helligkeit bei, es kommt nicht zu einem Absinken und zu keinem Flimmern. Die 60 Hz bei TFTs heißt dann nur noch, dass 60x in der Sekunde ein neues Bild von der Grafikkarte an den Bildschirm gesendet wird - nur, um die Darstellung zu aktualisieren, nicht mehr um das Bild neu aufzubauen. Man könnte auch den TFT mit 1 Hz betreiben, aber dann würden die Eingaben doch sehr verzögert erscheinen. Bei 120 Hz oder mehr wird einfach das Bild schneller/mit geringeren Abständen aktualisiert.

Im Grunde ist diese Zahl aber bei TFTs und LCDs ziemlich beliebig gewählt. Sie basiert auf der Spannung des Stromnetzes, an das früher die Wandler gekoppelt waren (deshalb PAL mit 50 Bildern/s = 50 Hz Spannung und NTSC mit 30 B/s = 60 Hz). Mittlerweile ist es egal, aber Fernsehnorm und damit in die Computertechnik übernommen. BluRay und moderne LCDs bieten darüberhinaus auch 24p, also 24 B/s = 24 Hz an. Trotzdem würde das niemand als Flimmern bezeichnen.

Bezüglich Wahrnehmung:
Der Mittelwert, bei dem das Auge eine Bewegung als flüssig wahr nimmt, wurde nach Tests auf ~25 B/s festgelegt. Mittelwert heißt: Für manche sind schon <20 B/s flüssig, für andere erst >30 B/s. Beeinflusst man aber selber das Geschehen, dann sieht das ganz wieder komplett anders aus. Dann werden 25 B/s (=FPS) noch als ruckelnd wahr genommen. Je schneller die Bewegung und je trainierter die Sensibilität desto mehr liegen die Werte auseinander. Jeder kennt das: Ein Schleich-Shooter oder RPG lässt sich noch einwandfrei mit 30-40 FPS spielen, während ein schneller Multiplayer-Shooter erst mit ~60 FPS vermeintlich flüssig läuft, und Pro-Gamer noch sensibler sind.


Und DAS ist IMO Allgemeinbildung und braucht auch nicht mit 30 Jahre alten Quellen belegt zu werden. Jeder weiß, dass sich die Wahrnehmung der Informationsgesellschaft in den letzten Jahrzehnten drastisch geändert hat. Die Technik ist eine ganz andere. Also worüber diskutiert ihr hier eigentlich und was hat das vor allem mit der Topic zu tun? :freak:
 
rumpel01 schrieb:
Gerade wenn ich mir als Vertreter eines ganz anderen Faches, d.h. nicht als Naturwissenschaftler, den anderen Aufsatz durchlese, dann erhalte ich den Eindruck, dass dort mit einem anderen Testaufbau und anderen Voraussetzungen andere Ergebnisse erhalten werden.

Nur weil ein Satz logisch klingt und eine hergeleitete Formel vorgeführt ist, heisst es lange nicht dass sie zu Anwendung kommen kann. Wie im Vorpost zu lesen...

Hinzu kommt noch die Tatsache, dass alle anderen nicht über 60 Hz kommen. Egal welches Dokument man mit halbwegs gut dokumentierten Versuchen durchliest, man kommt immer zum selben Ergebnis.

Hier ist es ebenfalls ganz ausführlich beschrieben. Sogar das statistische Modell inklusive der Standardabweichung.
http://www.iovs.org/cgi/reprint/40/12/2932

Es ist es auch nicht erstaunlich, dass der Herr, der ausgerechnet Lichttechnik promotet, wofür es dort sogar ein eigenes Institut gibt, die teurere (Gewinnbringende) Lichttechnik anpreist.

Alles wäre halb so schlimm, es ist ja nur ein Studentenscript. Es soll eine schnelle Pi mal Daumen Richtung sein, deren Quellen man eingehend studiert (wie eigentlich in jedem Studium). Jedoch lässt sein Literaturverzeichnis ebenfalls zu wünschen übrig. (S. 5)

mumpel schrieb:
... Ein Schleich-Shooter oder RPG lässt sich noch einwandfrei mit 30-40 FPS spielen, während ein schneller Multiplayer-Shooter erst mit ~60 FPS vermeintlich flüssig läuft, und Pro-Gamer noch sensibler sind.

Und DAS ist IMO Allgemeinbildung und braucht auch nicht mit 30 Jahre alten Quellen belegt zu werden. Jeder weiß, dass sich die Wahrnehmung der Informationsgesellschaft in den letzten Jahrzehnten drastisch geändert hat. Die Technik ist eine ganz andere. Also worüber diskutiert ihr hier eigentlich und was hat das vor allem mit der Topic zu tun? :freak:

Es ist nicht so dass im Laufe der Zeit, insbesondere in den letzten 30 Jahren, die Augen besser wurden. Eher umgekehrt. Gerade bei den Hardcore Spielern leiden die Augen neben dem Körper am meisten. So leid es mir auch tut diese Leute zu enttäuschen: Deren Augen bilden garantiert keine Referenz für ein gesundes Auge sondern i.d.R. eher die untere Qualität. Hinzu kommen viele hinzugekommene Effekte wie Smog, schlechtere Luft, weniger/unruhiger Schlaf und ein Paar Sachen aus dem letzten Post, die auch Augen der nicht Computerspieler belasten. Auch wird keine Evolution innerhalb von 30 Jahren stattfinden, von daher sind die Quellen vor 30 Jahren schon berechtigt. Zumal die oben angegebene Quelle aus dem Jahre 1999 stammt.

Seppuku schrieb:
Aber genau das habe ich ja gemeint, als ich vorgeschlagen habe, einen kleinen verblindeten Test durchzuführen. Deine Anforderungen stehen ja auch in einen meiner vorhergehenden Posts.
Und ein solcher Test sollte für den Zweck einer Computerseite ausreichend sein. Da muss ich keinen Experten der Neurowissenschaften mit im Boot haben damit eine bestimmte Anzahl von Leuten auf einen Unterschied (oder eben keinen) Aufmerksam werden.
Ein passendes Testszenario und eine ausreichend große Menge an Probanden ist dafür völlig ausreichend.

Ich habe gestern Abend mir ein wenig Zeit genommen, um die Antwort von "rumpel01" zu widerlegen, allerdings ist mumpel schon vor mir auf den Phosphor gekommen.. Dennoch bin ich auf sehr viele Dokumente gestoßen, die unter Anwendung von nicht Standard-Monitoren (womit sich viele Effekte ausschließen), immer zum ungefähr selben Ergebnis kommen. Man muss bei solchen nicht-standard-Monitor Versuchen bleiben, weil sie die optimale Lage zeigen, die die benutzer Monitore zunehmend erreichen. Da es genügend Tests gab, die sich mit "flackern" beschäftigt haben, ist es nicht mMn nicht mehr nötig einen durch die Monitore teilweise verfälschten Test durchzuführen. Mein Post war nur als Szenario gedacht deren Ausgang gut schätzbar ist.

mumpel schrieb:
Also worüber diskutiert ihr hier eigentlich und was hat das vor allem mit der Topic zu tun? :freak:

Weil einige hier postuliert haben 120fp/s sehen zu können. Solche Gebärden haben die Diskussion ins laufen gebracht, ob man überhaupt mehr als 60fps wahrnehmen kann. Das scheint nicht der Fall zu sein. Wenn man mit mehr als 60fps in einem Online Game verliert, sollte man die Schuld nicht beim Monitor suchen.
 
Zuletzt bearbeitet:
Es ist nicht so dass im Laufe der Zeit, insbesondere in den letzten 30 Jahren, die Augen besser wurden. Eher umgekehrt. Gerade bei den Hardcore Spielern leiden die Augen neben dem Körper am meisten.

Das ist eine These von dir. Untersuchungen zeigen aber, dass gerade bei Hardcore-Gamern die Reaktionszeiten auf Niveau von Jet-Piloten liegen (und die Gesundheit auf dem Niveau eines 60-jährigen Kettenrauchers :freak:). Junge Leute und vor allem Gamer nehmen heutzutage viel mehr Details in ihrer Umgebung war. Das wird auch in Film- und Videoproduktionen berücksichtigt. Schau dir mal Action-Filme aus den 70igern und aktuelle an. Bei ersteren schläft man heute quasi ein.

Mag also sein, dass ein (großer) Teil der Bildschirmarbeiter eine schlechtere Sehkraft hat und Brillen trägt. Aber die Wahrnehmung und Reaktionen haben sich in den letzten Jahrzehnten drastisch geändert. Demzufolge ist die Empfindlichkeit gegenüber Eingabeverzögerungen oder was als Ruckeln wahr genommen wird, eine ganz andere, als vor 30 Jahren. Vor allem aber die Technik hat sich geändert, so dass man kleinste Störungen viel stärker wahrnimmt (bspw. 24" FullHD-TFT vs. 10" Monochrom-Röhre oder klapprige Tastatureingabe anno 1970 vs. ergonomische Laser-Mouse mit 3.200 dpi anno 2010).
 
mumpel schrieb:
Reaktionszeiten auf Niveau von Jet-Piloten liegen (und die Gesundheit auf dem Niveau eines 60-jährigen Kettenrauchers :freak:).
Reaktionszeit passt hier gerade nicht zum Thema.

mumpel schrieb:
Junge Leute und vor allem Gamer nehmen heutzutage viel mehr Details in ihrer Umgebung war. Das wird auch in Film- und Videoproduktionen berücksichtigt. Schau dir mal Action-Filme aus den 70igern und aktuelle an. Bei ersteren schläft man heute quasi ein.
Das passt auch nicht zum Thema. Hierbei geht es um die Unterscheidung von Schattierungen.

mumpel schrieb:
Mag also sein, dass ein (großer) Teil der Bildschirmarbeiter eine schlechtere Sehkraft hat und Brillen trägt. Aber die Wahrnehmung und Reaktionen haben sich in den letzten Jahrzehnten drastisch geändert.
Da belegen die Studien aber was anderes. Wie oben gepostet, aus dem Jahrgang 1999.
Die Harvard Quelle ist von 1998. Von daher hat sich da nichts gebessert. Solche Veränderungen brauchen viel mehr Zeit. Da langen ein paar Jahrzehnte Computertechnologie definitiv nicht.

mumpel schrieb:
Demzufolge ist die Empfindlichkeit gegenüber Eingabeverzögerungen oder was als Ruckeln wahr genommen wird, eine ganz andere, als vor 30 Jahren.

Nein ist sie nicht. Hauptsächlich bei Online EGO Shooter Spielern die schnell Kontraste bzw. verschiedene Schattierungen unterscheiden müssen, wird diese Leistung ausgeprägt sein, hat jedoch nicht nichts mit der Frequenz der Augen zu tun. Lies den Harvard Artikel von "Seppuku". Man begründet es auf atomarer Ebene. Als Beweis führt man eine identische Messung am Salamander durch. Seinen Synchronisierungsverhältnis zu seiner Hz Rate korreliert mit dem des Menschen.

mumpel schrieb:
Vor allem aber die Technik hat sich geändert, so dass man kleinste Störungen viel stärker wahrnimmt (bspw. 24" FullHD-TFT vs. 10" Monochrom-Röhre oder klapprige Tastatureingabe anno 1970 vs. ergonomische Laser-Mouse mit 3.200 dpi anno 2010).
Das sind in erster Linie nur Hardwareverbesserungen, dadurch wird man nicht den von dir beschriebenen Effekt erreichen.

Zumal 3.200 dpi total nutzlos sind. Selbst wenn deine Hand noch nicht einmal Zittern siehst, so zittert sie weit außerhalb der Genauigkeit deiner Maus. Auch wenn du denkst dass sie sich ruhig verhält.

Genauso wie 44.000Hz Musik obwohl der Mensch ab etwa ~22.000Hz nichts hört.

1200dpi Drucker? Sagen wir ein Auge hat die Auflösung von 1millirad. Selbst damit kriegt man bei 600dpi aus Leseentfernung nichts unterschieden. Dann kommt dazu dass wir zwei Augen haben, damit steigt die Standardabweichung auf Wurzel(2) millirad. Dann kommt noch die Divergenz der Augen und die vielen (hoffentlich kleinen) Linsenfehler (Abberationen,Wölbungen,Verzeichnungen,usw). Wer eine Brille hat, den trifft es doppelt.

Man sollte wirklich mal vor jedem Kauf überdenken ob die Zahl überhaupt Sinn macht und ob nicht ein ein Produkt mit nützlichen Extras nicht die bessere/günstigere Wahl wäre. Viele kaufen einfach blind ein und erleben zu 99% einen Placeboeffekt wie wenn sie z. B. 192khz 7.1 FLAC auf einen Stereokopfhörer hören.

Die Psyche will sich selbst nicht bestrafen deswegen hilft sie in solchen Situationen mit verschiedenen Selbsterhaltungsmechanismen immer nach.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben