32" Fernseher gesucht

Ich verstehe jetzt deine Erklärung überhaupt nicht, wieso durch 100Hz bei abspielen von 24 fps Material der amateurkameraeffekt verstärkt werden soll. Das ist doch Quatsch. Und erklär mir mal, wie "saubere candence" funktioniert. Versuche mir eine Sache so zu erklären, dass sie jemand verstehen kann, der nicht alles weiß, was du bereits weißt. So wie du das jetzt geschrieben hast kann ich (und vermutlich viele andere) dir jedenfalls überhaupt nicht folgen.
 
Zuletzt bearbeitet:
naja, du hast so viel selbsterklärt (das zwar falsch war), dass ich dachte du kennst wenigstens die begriffe.

also:
bei 24p quellmaterial, also 24 fps, muss das bild irgendwie auf 50hz (bzw 25hz vollbilder) umgerechnet werden bzw 60hz (bzw 30hz) bei ntsc.
um das zu machen, kann man entweder simple die extraframes als kopie des vorigen frames nehmen, oder kompliziertere mischungen:
http://en.wikipedia.org/wiki/24p
da stehts genauer.

die 100hz technik hat damit NICHTS zutun. sie ist dazu da, um wie zuvor erklärt mit zwischenbildern die framerate künstlich zu erhöhen und/oder bewegungsunschärfe zu reduzieren.

wenn du nun aber bei der darstellung von 24p material die hochrechnung auf 50hz schlecht machst, d.h. z.b. einfach nur das letzte frame oft genug kopierst um aufzufüllen, dann wird dieser effekt noch versteckt durch die 100hz technik, die das noch einmal potentiert, da er das durch die schlechte 24p umsetzung ruckeln versucht zu "glätten" wirkt es noch künstlicher -> noch amateurhafter.

aber selbst wenn die 24p umsetzung optimal ist, dann bleibt immer noch der für die meisten unangenehme effekt der amateurkamera bei 100hz technik mit starker judder reduction (ruckelreduktion) wie bei jedem anderen film auch.

p.s. warum versuchst du eigentlich dinge zu erklärst die du von keiner halbwegs vertrauenswürdigen quelle haben kannst? woher hast du das denn, dass die 100hz geschichte für den 24p modus entwickelt wurde?

edit: wenn bei einem tv steht, er ünterstützt 24p, sagt das nichts darüber aus, wie er das genau macht, also nichts über die cadenz. es bedeutet nur, dass er 24p quellen annimt.
 
Zuletzt bearbeitet:
Wieso wird der Effekt mit 100 Hz schlechter? Judder redction,. alles tolle Begriffe aber keine Erklärung - die Zeit die bei "schlechter umsetzung", also einfach das Bild bei 50 Hz zweimal abbilden oder bei 100 Hz eben dreimal, ist doch die selbe - wie kann es da schlechter werden?

Ich hab nicht viel Ahnung davon, wie sowas in TV-Geräten funktioniert, aber ich weiß wie das ganze in Computern funktioniert und niemand beschwert sich dareüber, ein 75 oder 100 Hz Bildschirm hätte ein größeres Problem einen 24 fps Videostream optimal abzubiulden, als ein 60 Hz Bildschirm oder wie auch immer - dieses ganze Hokuspokusvoodoogerede, das in der Marketingblubberwelt der TV-Geräte vorherrscht, stört am Computer nicht. Wie machen das nur die Leute mit HTPC? Die schalten einfach ein Signal mit der Empffangsfrequenz des TV über HDMI an den Fernseher und gut ist, die Umrechnung übernimmt die Software am PC. Was mich beim TV-Geblubber einfach nervt, ist, dass irgendwie nicht ersichtlich wird, was durch was verursacht wird - 100 Hz ist erstmal eine Hardwarefähigkeit des Panels.

P.S.
Ich hab überhaupt nichts dagegen, wenn ich korrekt wiederlegt werde, darüber brauchen wir nicht reden, nur möchte ich dann auich gerne verstehen, was an deinen Erklärungen einfach nicht schlüssig ist und mir bisher so auch nicht korrekt erscheint: eben dieser Aspekt 24 fps Darstellung wäre bei 100 Hz schlechter als bei 50 Hz.

P.P.S.
Den Punkt der Einleitung im Wikipedia-Artikel, sollte ich den richtig verstanden haben, "24p" (ist ansich schon verwirrend geschrieben, definiert ist es sicher nicht, weil vor dem p steht bei der HDTV-Nomenklatur immer die Zeilenauflösung, die zeitliche steht immer hinter dem p, also bspw. 720p50 für 720 Bildzeilen mit 50 Bildern pro Sekunde) sei momentan immer beliebter um eine filmähnliche Bewegungsabbildung zu erreichen (ggü. 25 fps oderr 30 fps?) halte ich für vollkommenen Blödsinn, was vielleicht auch daran deutlich wird, dass ja im selben Artikel "48p" (*p48?) aufgeführt wird. p48 war die Aufzeichnungsform des analogen Aufzeichnungsformats IMAX-HD, das man immernoch in einigen IMAX-Kinos vorgeführt bekommt - dabei wurden Celluloid-Kameras mit doppelt so hoher Aufzeichnungsrate genutzt. Dass p24 auch digital genutzt wird hat imho nur einen einzigen Grund: Kinofilme müssen nach wie vor auch in Kinos laufen, die noch alte Celluloid-Abspielgeräte nutzen, welche fest mit 24 fps arbweiten müssen, um sich die Umwandlung für diese Oldschool-Kinos zu sparen, welche nach wie vor in der Mehrzahl sind, muss man auch digital einen kinofilm in einer durch 24 teilbaren Bildrate aufzeichnen, nicht weil das "eine kinoähnliche Bewegung" auf das Material bringen würde. Im Kino wird m,it dem Film mehr geld verdient, als auf TV-Geräten, deswegen werden Kinos eben bevorzugt, sonst wär die Standardaufzeichnung neuer Filme vermutlich p30.
 
Zuletzt bearbeitet:
Hi @ MountWalker,
ich versuche mal etwas Klarheit da rein zu bringen:

24p ... das "p" steht im Übrigen für "progressive", als die Wiedergabe mit Vollbildern. Gegenteil: "i" für "interlaced". Interlaced bedeutet, dass imemr nur die ungeraden Zeilen auf dem Display gezeichnet werden, also Zeile 1, 3, 5, ... Progressive Wiedergabe zeichnet jede Zeile einzeln, bedarf jedoch eines höheren Rechenaufwands.
Auf Bluray liegen die Bilder in 24 Vollbildern pro Sekunde vor. Jetzt kommt das Entscheidende: Ältere Displays zeichnen die Bilder mit 50Hz, also 50 Vollbildern pro Sekunde. Da der Bluray-Player bzw. der TV nicht einfach ein Bild doppelt zeigen kann (das gibt nur 48), muss er also einen 3:2-Pulldown durchführen. Er zeigt also ein Bild 3 mal, das nächste 2 mal usw. Pro Sekunde sollte dieser Vorgang 10 mal passieren, so kommen wir auf die gewünschten 50Hz (gibts auch mit 60Hz). Soweit klar?
Dieser 3:2-Pulldown ist halt etwas unregelmäßig und kann daher gerade bei Kameraschwenks zu minimal sichtbaren Rucklern führen (geübtes Auge!).

Ein Display, das 24p "nativ", also so wie es sein soll, verarbeitet, arbeitet i.d.R. mit 120Hz. Das ist ein ganzzahliges Vielfaches von 24 Bildern pro Sekunde. Jedes Bild wird dann einfach 5 mal in einer Sekunde angezeigt - siehe da: kein Ruckeln!

Zu 100Hz: Das ist hier schon richtig erklärt worden. Soll bei Sportübertragungen für ein ruhigeres Bild sorgen (Ball besser sichtbar und nicht verwischt). Hat aber mit 24p nix zu tun!

Ich hoffe, ich konnte helfen ;)
 
lieber MountWalker:
1. hast du hier ne waghalsige behauptung aufgestellt, die ich gar nicht erst hätte widerlegen müssen, wenn du nicht von dingen so sachkundig geschrieben hättest, von denen du offenbar nach eigener aussage kein ahung hast.

2. ist es eine frage, wie detailiert ich etwas erkläre. ich versuche es mal ausführlicher.


was judder reduction ist habe ich bereits erklärt: ruckelreduktion oder anderes künstliche erhöhung der fps. 5 zwischenbilder einer bewegung pro sekunde wirken ruckeling, 100 zwischenbilder pro sekunde wirken flüßig.

den 24p modus hat heilmaenner bereits genauer erklärt. relevant ist hier einzig, dass es um ein videosignal geht, dass 24 vollbilder pro sekunde liefert.

zur darstellung von 24p material gibt es mehrere möglichkeiten:
1. die bildwiederholfrequenz des tvs ist auch auf 24hz eingestellt (oder ein vielfacches), dann wird das video genau so abgespielt, wie es sein soll. bei einem vielfachen von 24 erscheinen alle frames entsprechend oft kopiert.

2. der tv hat eine höhere bildwiederholfrequenz, die 24 nicht als teiler hat. dan muss immer wieder ein frame öfters als andere dargestellt werden.

im zweiten fall gibt es mehrere möglichkeiten jeh nachdem wie die bildwiederholfrequenz ist das genau zu machen. die schlechteste ist, ein frame so oft darszustellen, bis zeitlich das nöchste drann kommen sollte:
bsp: bildwiederholfrequenz 25hz
|---- 1ste sekunde ---||-- zweite sekunde --
1 2 3 4 5 ... 23 24 24 1 2 3 4 5

bsp: bildwiederholfrequenz 50hz
|---- 1ste sekunde ------------------------||-- zweite sekunde --
1 1 2 2 3 3 4 4 ... 23 23 24 24 24 24 1 2 3 4 5

bei dieser art hätte man jede sekunde immer ein leicht stärkeres ruckeln während alles davor ein fitzelchen flinker läuft als es sollte. wirkt wie ein stottern.
besser wäre es diese mehrfach kopien auf mehrere zeitpunkte gleichmäßig zu verteilen. das nennt man die kandenz, also die art der verteilung (siehe link von vorigem post).

so, nun kommt die 100hz technik. bei ihr ist die bildwiederholfrequenz 100hz. im übrigen gibt es sowas NICHT bei pc monitoren. dein vergleich dazu ist völlig unpassend.

bei der 100 hz technik werden ebenfalls zwischenbilder eingefügt, allerdings sind dies keine kopien vom vorigem frame sondern ein berechnetes zwischenbild zwischen zwei aufeinanderfolgenden input frames mit der eigenschaft, dass sie durch die zusätzliche zwischenbewegung den bewegungsablauf flüssiger erscheinen lassen.

was passiert nun, wenn man einen 24p modus, welcher eine schlechte kandenzeinstellung nutzt mit dieser 100hz technik kombiniert?

im extremfall (oben beschrieben) gibt es also nach jeder sekunde ein leichtes stottern, bedingt durch einen langgestrekten frame. die 100hz technik hat durch die künstlichen zwischenbilder, die folglich keine realistische zwischenbewegung berechnen (wie auch) sondern eine art morphing zwischen zwei bildern berechnet einen amateurkamera effekt - so wirkt es halt subjektiv.

nun haben wir aber jede sekunde einen frame, der ein wenig länger dauert als alle anderen. wenn da dann diese künstlichen zwischenbilder mit künstlichen zwischenbewegung reinkommen sind ist die zeit einer bewegung zwischen zwei echten bewegungsdarstellenden frames größer, d,h, der anteil einer künstlichen berechneten bewegung ist länger => der amaterukameraeffekt ist stärker.

ist die kandenz besser, d.h. bei der darstellung von 24p werden die frames besser zeitlich verteilt, haben wir nicht so eine starke konzentration von künstlich berechneten zwischenbewegungen in regelmäßigen zeitabständen.

so, genauer kann ichs ohne bilder etc. nicht erklären. zusammen mit dem link oben müsstest du es jetzt nachvollziehen können.

edit: bei pc monitoren hast du keinen tv 100hz mdus. das hat ansich nichts mit der bildwiederholfrequenz zu tun. sondern bei den tv 100hz modi geht es eigentlich um die berechneten zwischenbildern!
 
Zuletzt bearbeitet:
Dese schrieb:
... im übrigen gibt es sowas NICHT bei pc monitoren. dein vergleich dazu ist völlig unpassend.
...
Mein Vergleich ist sehr passend, war allerdings scheinbar meinerseits schlecht erklärt, denn genau das ist der Grund für den Vergleich. Jawohl, auf PC-Monitoren gibt es soetwas nicht, es gibt aber auch niemanden, der dies fordern würde.

Naja, jedenfalls danke ich dir, dass du mir doch noch erklärt hast wie das mit der Kandenz funktioniert. :)

Ich hatte übrigens nicht gesagt, ich hätte gar keine Ahnung, sondern ich habe wenig Ahnung.
 
jaja wie auch immer. ;) mich hatte es ein wenig gestört, dass du da mit einer recht selbstbewusten aussage 100hz sei für 24p quellen gemacht worden ankamst, welche so falscher kaum sein kann. wenn du es als eine vermutung deiner seits ausgedrückt hättest wäre ich wohl weniger direkt gewesen.

und zu 100hz technik und pv monitor. da hat das nichts zu suchen! zwischenbilder, und zwar echte, also der echten bewegung entsprechende, sollte der pc selbst berechnen. läßt du das den monitor machen hat es zwei nachteile:
1. da er nicht wirklich weiß, was dargestellt wird, wird es immer künstlich aussehen.
2. inputlag! und nicht grad wenig. die meisten lcds mit 100hz haben nen input-lag von über 60ms, viele 100ms.
 
bei fußballübertragungen sieht man den unterschied zwischen 50hz und 100hz deutlich. ich habe einen 50hz lcd tv. dort sind die banden bei schnelleren kamerabewegungen unschärfer als bei dem 100hz lcd meines nachbarn.
 
um das thema soap-effekt anzuschneiden: ich erwische mich manchmal dabei, bei blu-rays motionflow auf minimum einzuschalten. warum? weil der sony fernseher bei stufe minimum das bild plastischer erscheinen lässt als beim originalfilm.

schwer zu erklären. es sieht nicht wie im kino aus, aber auch nicht wie mit ner handkamera gefilmt. dieses zwischending... das gefällt mir irgendwie....

aber nichtsdestotrotz hat dese schon recht, natives 24p ist das optimum, wenn man die filme zu hause so sehen will wie im kino gezeigt, bzw. wie es der regisseur vorgesehen hat.
der mann hat ahnung :D
 
ja gh0, ich machs genau wie du. hab auch bei filmen 100hz an, aber nicht voll aufgedreht. so hab ich langsame bewegungen quasi etwas geschmeidiger ohne aber den amateurkameraeffekt (aka soap-effekt) zu sehen.

das geht aber auch nur gut, wenn der tv die 24p mit guter kandenz umsetzt. das tuen sowohl die sonys wie auch die aktuellen samsungs.
 
Nochmal ne Verständnisfrage: Könnte man sagen, dass es sich bei "100-Hz-Technik" um eine Art nachträglich berechnetes Motion-Blur (im Sinne von 3Dfx) handelt? Dann bräuchte man es halt nur da, wo bei der Aufnahme wegen kurzer Belichtungszeit und ohne Motion-Blur-Berechnung im Filmstudio die Frame-Übergänge stockend sind.
 
Hier ist die genaue Wiki-Erklärung

100/120-Hz-Technik bzw. 200/240-Hz-Technik
Hier werden synthetische Zwischenbilder berechnet und anschließend zusammen mit den Originalbildern ausgegeben. Dadurch erhöht sich die reale Bildfrequenz um ein ganzzahliges Vielfaches. Aus 24 fps (Kinostandard) werden so 48, 72, 96 oder sogar 120 fps. Schlieren durch Hold-Displays können so deutlich reduziert werden. Neben der Reduktion von Bewegungsunschärfen werden auf diese Weise Bewegungen und Kamerafahrten deutlich flüssiger wiedergegeben. Allerdings kann durch die Bewegungsinterpolation insbesondere bei leicht rauschenden Bildquellen eine mehr oder weniger deutliche Trennung zwischen Vorder- und Hintergrund im Bild beobachtet werden (Soap-Effekt). Die 100/120-Hz-Technik kommt mittlerweile (2008) in vielen höherwertigen Displays zum Einsatz. 240-Hz-Geräte sind angekündigt. Ein weiterer Vorteil dieser Technik ist es, dass Overdrive feiner dosiert angewendet werden kann.
 
Die Wikipedia-Erklärung hatte ich schon gelsen, die finde ich aber mindestens schwer verständlich, möglicherweise auch irreführend - sie erweckt ja den Eindruck es würden scharfe Zwischenbilder berechnet, was aber irgendwie unglaubwürdig klingt, weil dann bräuchte ich ja bspw. bei Videspielen (insbesondere rechenschwache Konsole) nur 20 fps berechnen lassen und kann die Konsole an einen solchen hochwertigen fernseher gehängt 40 fps oder mehr genießen.
 
doch, im grunde passiert genau das was du als unglaubwürdig bezeichnest. der haken ist aber, dass die zwischenbilder nur ein lineares morphing darstellen. d.h. wenn z.b. eine bewegung eines sich um einen punkt drehendes objekt dargestellt wird, und das mit so wenig frames pro sek, dass du den ball nur link und rechts horizontal siehst, dann werden die zwischenbilder quasi ne linie darstellen, da der tv ja nicht weiß, dass der ball eigentlich sich um ne achse dreht.

diese abweichung von der beabsichtigten/natürlichen bewegung wirkt subjektiv künstlich und nennt sich amateurkamera oder soap effekt.

zudem hat es noch einen weiteren nachteil: man muss mindestens 2 frames warten, bevor man zwischenbilder berechnen kann was somit zu einem starken inputlag führt. d.h. beim spielen drückst du den knopf aber die reaktion kommt erst 100ms später. du siehst generell alles mit eine rel. große verzögerung erst auf dem bildschirm.

aber bei szenen wie sport, die schnelle bewegungen haben macht das sinn, so wirken fleigende fußbällte flüßiger und schärfer.

auch bei filmen kann es sinnvoll sein, wenn man die 100hz zwischenbilder justieren kann.
 
Zurück
Oben