Original erstellt von OssiBalboa
@Niyu
Du vermischst Äpfel mit Birnen, was Du schreibst ist zwas zum grössten Teil richtig, aber die Schlussfolgerungen sind falsch.
Ich kann die ganzen technischen Details auch runterbeten (Digitale Signalverarbeitung im audiovisuellen Multimediabereich, hieß mal mein Thema)
Nur geht es nicht um flimmern sondern um Ruckeln.
Das menschliche Auge kann ab ca. 15 Bildern/Sek den Unterschied zwischen einem Einzelbild und einer Bewegung nicht mehr ausmachen.
Kinofilme werden z.B. auch nur mit 24 Bildern/Sek gedreht und keiner heult deswegen.
Das die Rezeptoren schnell ermüden wenn wir auf einen Monitor /Bildschirm schauen, dessen Bildwiederholfrequenz (<85Hz) niedrig ist und dieses auch durch ein Flimmer wahrnehmen ist , hat aber mit einer flüssigen Bewegung nichts zu tun.
Überlege mal das Flimmern nimmst Du auch bei einem unbeweglichen Testbild war.
Bei der PAL Norm werden keine 50 Hz ausgestrahlt, sondern es werden lediglich 25 Bilder pro Sekunde im Zeilensprungverfahren ineinandern "verzahnt", ähnlich einem Reißverschluß. Innerhalb der Röhre wird ein Elektronenstrahl abgelenkt, so daß er Punkt für Punkt, Zeile für Zeile den Fernseher oder Monitor von links nach rechts und oben nach unten abtastet. Die Anzahl der Zeilen, die er dabei pro Sekunde ansteuern kann ergibt die Zeilen- oder Horizontalfrequenz, die Anzahl der Bilder, die dabei pro Sekunde dargestellt werden die Bild- oder Vertikalfrequenz. Wie du schon richtig gesagt hast, ist man davon ausgegangen, daß 25 Bilder pro Sekunde dem menschlichen Auge flüssig erscheinen.
ABER: Im Kino wird bei jedem Bild die !komplette! Leinwand auf einmal ausgeleuchtet - beim Fernsehen werden die Bildpunkte alle einzeln angesteuert => das Bild flimmert. Um dieses Bild zu beruhigen gibt es zwei Möglichkeiten: Entweder man erhöht einfach die Anzahl der Bilder - dann braucht man aber z.B. für 50 Hz auch die doppelte Bandbreite (und genau die wollte man gerne einsparen). Deshalb hat man stattdessen zum Interlace-Verfahren gegriffen, bei dem nicht 50 komplette Bilder pro Sekunde auf den Fernsehschirm gebracht werden, sondern 50 Halbbilder, die aus den 25 übertragenen Bildern erzeugt werden. Der Elektronenstrahl erzeugt zunächst die ungeraden Zeilen, danach erst die geraden Zeilen eines Bildes, dann wieder die ungeraden Zeilen des nächsten Bildes usw. Auf diese Weise werden die Bilder schneller aufgebaut, es wird Bandbreite gespart, und zusätzlich gibts noch einen "motion blur" effekt, d.h. durch das Verzahnen der Halbbilder zweier aufeinanderfolgender Bilder wird eine Bewegung, die evtl. grad dargestellt werden soll, zusätzlich verwischt und damit sehr flüssig. Solange das Bild in Bewegung ist. Im Standbild erkennt man diesen Effekt daran, daß das Bild horizontale Balken aufweist (einfach mal die TV-Karten Software starten und in einer schnellen Szene das Bild einfrieren).
... deswegen vergleiche nicht ich die Äpfel mit den Birnen ..sondern du selbst

Dieses 24 Bilder pro Sekunde geschwafel ist sooo uralt..das hat mehr als nur einen Bart. Zudem habe ich mehrmals auf den Unterschied FPS zu Hz hingewiesen.. aber getrennt voneinander betrachten kann man es leider nicht. Was FPS angeht, verweise ich auf den wirklich guten Artikel in dem Link, den ich oben angegeben habe.
Ich habe mich ausführlichst mit dem Thema beschäftigt, du darfst mir gerne glauben... musst du natürlich nicht

Ich mein, man kann natürlich weiterhin Kino + Fernsehen + Monitor durcheinanderwerfen um dann auf 24 Bilder pro Sekunde zu kommen.. aber sagt mal, probiert ihr das überhaupt mal aus? Drosselt doch mal euren Compy in einem Spiel soweit das ihr annähernd konstante 24 FPS habt...glaubt ihr euch den Scheiss dann selber noch? Ich mein, wenn ich euch schon nicht theoretisch überzeugen kann...