Frage zum Thema Bildqualität

AMD_Rulez

Lieutenant
Registriert
Feb. 2010
Beiträge
582
Hallo

1.habe mitbekommen dass die öffentlich rechtlichen Sender garnicht in FullHD sondern in 1080i50 also mit 50 Hertz senden.
2. Wozu sollte man sich dann einen Fernseher mit 100 oder mehr Hertz anlegen?
3.Mit welcher Bildqualität senden die anderen Sender ohne HD+ ?
4.Und ab wie viel Hertz nimmt das menschliche Auge ein Video als Flüssig war? Ich weiß nur dass bei Frames bei ungefähr 23 liegt.
5.Was ist der Unterscheid zwischen Frames und Hertz?
6.Außerdem:
Wenn ich mir ein FullHD Video auf einem Monitor mit einer Auflösung von 1280*1024 angucke sieht das Bild trotzdem besser aus als bei einem Video, das für diese Auflösung ist. Warum?

Blicke da nicht so ganz durch und höhere mal dies mal das aber nichts konkretes...

Bitte nur sachliche und evtl. begründete Antworten:)
 
Zuletzt bearbeitet:
1080i?
Nur wenn du dafür extra löhnst, bei SKY usw.
Ansonsten maximal 720P.(DVB-T)
Normales (altes) Bild sind ~480P

Die Fernseher haben alle 50Hz.
Alles drüber sind zwischengerechnete Bilder um bei der Größe Hüpfer schneller Gegenstände(Tennis/Fußball/Laufschrift) zu vermeiden.

Wenn du ein HD-Video auf einem Monitor mit kleinerer Auflösung betrachtest, ist das wie AA bei einem Spiel.
Was ein HD-Fernseher bringen kann, sieht man nur mit BluRays mit echtem und gutem FHD Material.
 
Zuletzt bearbeitet:
AMD_Rulez schrieb:
1.habe mitbekommen dass die öffentlich rechtlichen Sender garnicht in FullHD sondern in 1080i50 also mit 50 Hertz senden.

Woher hast Du die Info? 1080i wäre FullHD. FullHD bedeutet, eine Auflösung von 1920x1080. Und das ist 1080i.

Aber die ÖR senden in 1280x720 p50. Also *HD* Format mit 50 Vollbildern / sec.

Die privaten Senden *meist* in 1080i. Also in FullHD aber mit 50 Halbbildern.

Was die 100 Hz angeht. Das geschieht immer und geschah immer auf Seite der TVs. Es werden halt einfach ein paar zusätzliche Bilder vom TV berechnet, damit eventuelle Nachzieheffekte reduziert werden. Aber diese Systeme machen das Bild nicht immer besser. Es kommt entscheidend drauf an, was man sich gerade anschaut.
 
Wenn ich mir ein FullHD Video auf einem Monitor mit einer Auflösung von 1280*1024 angucke sieht das Bild trotzdem besser aus als bei einem Video, das für diese Auflösung ist.
Begründest du das bitte? Das ist mir noch nie aufgefallen!?
 
Dann eine weitere Frage: wozu lohnt es sich einen FullHD Fernseher zu kaufen wenn man ohne HD+ nur die öffentlich rechtlichen in 720p bekommt? Abgesehen von BlueRays gucken oder anderen Dingen - nur das reine Fernsehen.
Ergänzung ()

@BlubbsDE

1080i aktualisiert doch nur jede zweite Pixelzeile und hat daher ein schlechteres Bild als 720p meiner Meinung nach.
Was senden denn jetzt die öffentlich rechtlichen in DE? Mit 1080i oder 720p? Und in welchem Format senden die übrigen Sender?
 
AMD_Rulez schrieb:
Dann eine weitere Frage: wozu lohnt es sich einen FullHD Fernseher zu kaufen wenn man ohne HD+ nur die öffentlich rechtlichen in 720p bekommt? Abgesehen von BlueRays gucken oder anderen Dingen - nur das reine Fernsehen.

Gar nicht im Grunde. Wenn Du einen guten HD Fernseher (mit 1280x720) bekommst und nur TV Programm schaust, dann kauf Dir den. Aber den wirst Du heute nicht mehr finden.

Ordentliche TV Geräte haben eben FullHD. Weil sie so alles können und nicht eingeschränkt sind.

Ein Vorteil ist eben auch noch die größere Pixelanzahl. Das lässt Dich weniger schnell die einzelnen Pixel erkennen.

1920x1080 hat mehr als doppelt so viele Pixel, wie es 1280x720 hat. Bei gleichem Sitzabstand und gleicher Bildschirmgröße siehst Du dann eben die Pixel schneller, da sie doppelt so Groß sind.

Was senden denn jetzt die öffentlich rechtlichen in DE? Mit 1080i oder 720p? Und in welchem Format senden die übrigen Sender?

ÖR=720p50
Private= 1080i

mit einigen Ausnahmen. Siehe Sky oder auch ausländische Sender.
 
Weil jederzeit umgestellt werden kann und weil HD-Ready-Schirme mit 1366x768 nur noch Restposten aus dem letzten Jahrzehnt sind und Du nicht wirklich viel Geld sparen würdest, weil der Stromverbrauch der alten Schätzchen höher ist, die Qualität dafür schlechter.
 
du verwechselst da was...
1080i= interlaced (halbbild)
1080p= progressiv (vollbilder)

also bekommt dein fernseher 1080i "vertikale halbbilder" pro sekunde (25 untere und 25 obere), die werden dann im fernseh-prozzi zusammengefügt...

100herz fernseher= das bild wird mit der frequenz 100herz aufgefrischt. je höher die frequenz, desto weniger flimmert es.
FullHD kann 1080p
HD ready kann 720p
 
1. Die ÖR senden alle in 720p50

2. Das wird hier erklärt

3. Meinst du wirklich Bildquallität ? Oder Auflösung und Hz ? De Bildquallität hängt von der Bitrate und der Quallität des Ausgansmaterials ab, generell sieht HD-Bild besser aus als SD-Bild.

4. Das minimum liegt wohl bei ~23/24 Bps

5. Hz: Ist die Aktuallisierungsrate des Bildschirms, bei 60 Hz wird 60 mal in der Sekunde ein neues Bild aufgebaut. Frames: Ein ( progressives) Video mit 50 Frames hat pro Sekunde 50 "Bilder" gespeichert. Bei Fernsehren gibt es noch die Angabe 100/200/400 Hz. Was das bedeutet steht in dem Link unter 2. Teilweise wird dabei auch die Frames Zahl verdoppelt.

6. Das liegt wohlan deinen Videos, und da kann man nicht viel zu sagen ohne diese zu kennen. Beim runterrechnen von Full-HD ist das Bild im gegensatzt zu HD quasi Artefakt-frei; und da das HD-Bild meist schon scharf ist, ist es runtergerechnet auch noch sehr scharf. Es könnte aber auch an der nicht optimalen Bitrate des HD ( 1280*720) Videos liegen , oder an den Einstellungen deines Videoplayers.

Dann eine weitere Frage: wozu lohnt es sich einen FullHD Fernseher zu kaufen wenn man ohne HD+ nur die öffentlich rechtlichen in 720p bekommt? Abgesehen von BlueRays gucken oder anderen Dingen - nur das reine Fernsehen.

Was willst du denn sonst kaufen wenn nicht 1920x1080 ? Da bleibt bei den LCDs noch 1366x768, und das kann weder HD noch Full-HD anzeigen, ohne Skalieren zu müssen. Also wird dabei das Bild auch nie 100% scharf sein. Bei1920x1080 ist wenigstens Full-HD scharf.

1080i aktualisiert doch nur jede zweite Pixelzeile und hat daher ein schlechteres Bild als 720p meiner Meinung nach.
Was senden denn jetzt die öffentlich rechtlichen in DE? Mit 1080i oder 720p? Und in welchem Format senden die übrigen Sender?

Die Bildquallität von langsammen Kamerabewegungen ist bei 1080i besser als bei 720p, gut zu sehen an den frei empfangbaren Full-HD Sendern. Bei schnellen Kamerabewegungen wie z.B. Fußballspielen soll 720p vorteile gegenüber 1080i haben, deswegen haben sich die ÖR auch dazu entschieden soweit ich weiß.

Die ÖR senden in 720p, die Restlichen in 1080i

@chrigu:
Die 100Hz-Technik bei LCDs hat nichts mit Flimmern zu tun, nur bei Röhren und Plasma-TVs.
 
Zuletzt bearbeitet:
mhh ich war der meinung, je höher die bildwiederholfrequenz des fernseher ist, desto weniger flimmert es bei schlechtem material. deswegen braucht es z.b. 120herz bei monitore mit 3d....
 
vielen dank für die hilfe. als tipp: schaut euch mal den bericht von Gallo2000 an der ist wirklich super verständlich geschrieben und beantwortet eben fast all diese fragen.
Ergänzung ()

eine letzte frage hätte ich dann noch: wenn man sich nah vor manche fernseher stellt erkennt man bei manchen "schmierige "pixel. das bild wirkt unscharf. liegt das daran dass sie 1080i liefern, damit also nur jede zweite pixelreihe aktualisiert wird und keine 1080p liefern?
 
wenn man sich nah vor manche fernseher stellt erkennt man bei manchen "schmierige "pixel. das bild wirkt unscharf. liegt das daran dass sie 1080i liefern, damit also nur jede zweite pixelreihe aktualisiert wird und keine 1080p liefern?

Wenn das Bild unscharf ist, kann das an mehreren Dingen liegen.
-Es ist ein Standard SD Bild, welches auf Full-HD skaliert wird.

Wenn aber selbst ein Full-HD Film/Sender unscharf ist:
-Ist entweder das Quellmaterial nur SD, und der Sender skaliert das nach Full-HD. Dann sieht es meistens nicht viel besser aus als ein ganz normales SD-Bild

-Ist die Option "Overscann" beim TV aktiv. D.h. der TV schneidet einen Teil des Bildes an den Seiten ab, und "zerrt" das kleinere Bild dann wieder auf die ursprüngliche Auflösung. Durch dieses hochrechnen wird es dann auch wieder leicht unscharf.

Bei meinen LG TV heist die Option ohne wegschneiden "Just Scan", und kann nur bei HD und Full-HD Bild aktiviert werden. Deswegen lasse ich das Sat-Bild von meinem Sat-Receiver als 1080i ausgeben; so wird selbst bei SD-Material nichts weggeschnitten (was auch manchmal nachteile haben kann).

Wenn der TV am PC hängt, kann das Bild auch unscharf sein, weil es in den Treibern vom PC auch Overscann gibt.

-kann es wirklich mit dem interlacing zu tun haben. Es gibt mehrere Deinterlacingverfahren, wobei ich nicht weiß welcher TV welche Methode kann. Eine Übersicht über die Verfahren mit Beispielbildern gibt es hier .

-Es kann auch einfach an der Quallität des Videos liegen. Wenn es auf anderen Geräten jedoch besser aussieht, hat es wohl nichts damit zu tun.
 
chrigu schrieb:
mhh ich war der meinung, je höher die bildwiederholfrequenz des fernseher ist, desto weniger flimmert es bei schlechtem material. deswegen braucht es z.b. 120herz bei monitore mit 3d....
Nö - wie unter dem Link von "Gallo2000" nachzulesen ist: LCDs flimmern nie, denn bei denen gibt es keinen dauernden schnellen Hell/Dunkel-Wechsel (wie bei Plasma- oder Röhren-TVs).

Allerdings flimmert das Bild beim Blick durch eine Shutterbrille (denn durch das An/Aus der Brillengläser entsteht schließlich wiederum ein schneller Hell/Dunkel-Wechsel... also: ein Flimmern).
Obwohl also LCDs selbst nicht flimmern, wirken bei 3D per Shuttertechnik (auch mit LCDs) die 120Hz dem shutter-bedingten Flimmern entgegen.
 
Zurück
Oben