4 K - abhängig vom Receiver ?

bonoseven schrieb:
So ganz erschließt sich jetzt mit trotzdem nicht , warum man unbedingt 4 k am Tv haben muss, wenn man dafür oft bezahlen muss.
warum sollte man nicht dafuer bezahlen muessen, die Produktionen kosten ja auch Geld. Fakt ist aber auch, du musst keinen 4K TV haben, nur kannst du dann halt auch keinen Film in 4K sehen. So rum musst du es sehen. Ob man 4K "braucht" muss jeder fuer sich selbst wissen
 
Eine gewisse Qualität, Performance, Features, Ausstattung , etc gibt es nur bei UHD TVs. Der UHD TV stellt jede Auflösung von SD, HD, FHD, bis UHD dar. Egal welche zugespielt wird, es wird immer bildschirmfüllend hochskaliert. Je höher die zugespielte Auflösung ist, desto besser ist im allgemeinen auch die Bildqualität, gezwungen Material mit höherer Auflösung zuzuspielen ist man nicht
 
Alexander2 schrieb:
Ich weiß was du meinst! Aber was du schreibst ist falsch und sorgt für Verwirrungen. Und ich meine nichtmal unbedingt, das du Bit/s weggelassen hast aber der Hint alleine verdeutlicht schon, warum das davor auch falsch ist.
Mir ist klar, das diese Falsche Angabe so ziemlich verbreitet ist.

Edit:
Um noch einen Hint anzubringen, "15 k" reicht für einen Internetradiosende OHNE Bild, wenn schlechter Ton ok ist.
Ich meinte natürlich 15 mbit bitrate eher mehr. Ich hab mal verschiedene Videos verglichen. Auch mit 4 K. Und da konnte ich vergleichen von 13 mbit bis knapp 30 mbit. An einen lg c1 Oled. Da konnte man noch gut erkennen, bei knapp an die 30 mbit war das Bild top scharf.
Ergänzung ()

onetwoxx schrieb:
Je höher die zugespielte Auflösung ist, desto besser ist im allgemeinen auch die Bildqualität
bei zu geringer Bitrate bringt 4 k aber keinen Schärfe gewinn, wenn man nur 6-8 mbit hat wäre fullhd besser.
 
  • Gefällt mir
Reaktionen: Alexander2
Kommt aber auch darauf an ob es sich um eine variable Bitrate handelt, sowie die Art des Contents. UHD punktet halt hauptsächlich durch HDR/DV
 
Zurück
Oben