News 4K Blu-ray: Finaler Standard bietet Ultra HD, HDR und mehr FPS

Lars_SHG schrieb:
Aber schon ärgerlich! Das bedeutet, neuer TV, neuer BluRay-Player, neuer AVR, neue Kabel und vor allem neue BluRays meiner absoluten Lieblingsfilme!

Nö, das bedeutet es eben überhaupt nicht, wird doch niemand gezwungen neues Equipment zu kaufen?
Abgesehen von einem neuem Blu-ray-Player.

Steht doch in der News: wenn die Kompatibilität mit HDCP 2.2 beim TV und AV-Receiver nicht gegeben ist, wird automatisch Full HD abgespielt ...
 
@ix.tank

Wenn HDR tatsächlich nichts anderes als mehr Farbtiefe ist (war mir tatsächlich nicht bewusst, habe mehr erwartet) dann hat sich das Thema für mich erledigt, ist wohl bloß der nächste Marketing-Gag.

Ich denke gerade weil 3D so unterschiedlich wahrgenommen wird hat es am Markt in dieser Form keine Chance, anders sehe ich das allerdings bei den VR-Systemen diese sind ausschließlich für 3D prädestiniert, das kommt der technischen Umsetzung zugute und die Erwartungshaltung ist eine ganz andere. Ich hoffe sie schaffen diesmal den Durchbruch.

@Edit
Achja, zu deinem Funfact, das hier ist so ähnlich: http://www.gifbin.com/982494 das wird einfach nicht alt :D
 
Zuletzt bearbeitet:
Wenn HDR tatsächlich nichts anderes als mehr Farbtiefe ist (war mir tatsächlich nicht bewusst, habe mehr erwartet) dann hat sich das Thema für mich erledigt, ist wohl bloß der nächste Marketing-Gag.

Schlecht umgesetzt ja, aber mit einem Display mit ausreichendem Kontrastverhältnis (inkl. solider max. Helligkeit also weit über dem was es so aktuell in den Märkten rumsteht) könnte das der nächste große Sprung sein. Dann verhält sich das aktuell beste LDR-Gerät zu einem HDR-Gerät wie ein gedrucktes Foto bei normaler Beleuchtung zum aktuell besten LDR-Gerät. Zum Kontrastverhältnis noch eins OLED und Plasma sind da ja gern mal bescheiden und schreiben "unendlich" weil die Zellen ja abschaltbar sind, allerdings ist nur das minimal darstellbare Grau relevant, sonst wirds nichts mit HDR wenn die Details in den Schatten immer verschwinden.

@kurz noch zum Funfact, wenn das allerdings nach Minuten nicht aufhört, wird dir echt anders :).
 
Zuletzt bearbeitet:
Nein, HDR bzw. der damit einhergehende Zwang für höhere Farbtiefe ist kein Marketinggag. So halten mehr Farb-/Helligkeitsabstufungen und somit höhere nutzbare Kontraste im Consumerbereich Einzug ... endlich!

ix.tank schrieb:
Zum Kontrastverhältnis noch eins OLED und Plasma sind da ja gern mal Bescheiden und schreiben "unendlich" weil die Zellen ja abschaltbar sind, allerdings ist nur das minimal darstellbare Grau relevant sonst wirds nichts mit HDR wenn die Details in den Schatten immer verschwinden.
Wieso sollte schwarz für das Kontrastverhältnis nicht relevant sein? Auch mit Schwarz lassen sich Details zeichnen, eben im Kontrast zu den umliegenden "andersfarbigen" Pixeln. Unendlich ist aber natürlich trotzdem Quatsch.
 
Zuletzt bearbeitet:
cypeak schrieb:
die jungs die das "echte" kino 4k format definieren (DCI), kennen unter 4k auch verschiedene auflösungen je nach seitenverhältniss, die zw. 4096x1716 (cinemascope) und 4096x2160 (native) schwirren...aber da gibts auch so konstrukte wie 3996x2160 (sog. flatcrop)

Um's genau zu sagen, auch wenn's nur ne Nebensache ist: Alles was irgendwo zwischen 4096x2160 liegt und mindestens eine Dimension ausfüllt ist erlaubt.

Vor allem der neue Rec. 2020 Farbraum ist eine begrüßenswerte Neuerung, da dieser bis zu 75% von CIE 1931 abdeckt - im Gegensatz zu den 35% von Rec. 709 der heutigen Blu-rays. Daher sind auch mindestens 10 Bit in Rec. 2020 vorgesehen. Mit 8 Bit würde der neue Farbraum wegen der höheren Abdeckung wahrscheinlich sogar schlechter als Rec. 709 aussehen, da die Abstufungen zwischen den Farben zu gering wären (Banding). Allein die Bittiefe hochzuschrauben hätte wenig Sinn gemacht.
 
gintoki schrieb:
Nein, HDR bzw. der damit einhergehende Zwang für höhere Farbtiefe ist kein Marketinggag.

Doch, höhere Farbtiefe ist höhere Farbtiefe und kein HDR, statt also einfach 10bit Farbtiefe einzuführen so dass alle möglichen Geräte und Quellen davon profitieren führt man ein proprietäres Stück Marketing ein, es ist schlichtweg der falsche Weg.

gintoki schrieb:
Wieso sollte schwarz für das Kontrastverhältnis nicht relevant sein? Auch mit Schwarz lassen sich Details zeichnen, eben im Kontrast zu den umliegenden "andersfarbigen" Pixeln. Unendlich ist aber natürlich trotzdem Quatsch.

Er mein ja nur, dass solange die Pixel komplett abschaltbar sind immer von "infinite contrast" gesprochen werden kann, auch dann wenn sie im An-Zustand so dunkel sind dass du überhaupt nicht merkst das sie an sind. Es ist auch kein Quatsch rechnerisch geht es ja auf, eher ein Schlupfloch also.

Es wäre auch tatsächlich interessant wie groß der Sprung von absolutem Schwarz zu der nächsten Darstellbaren Farbe wirklich ausfällt, es könnte durchaus einen großen Unterschied machen.

@ix.tank
Mein Beamer kann mich auch ohne HDR dermaßen blenden dass ich weg gucken muss, das schiebe ich allerdings dem regisseur in die Schuhe, nach einer dunklen Szene macht man eingach keine Überblendung mit vollkommen weißem Bild :cool_alt:
 
Zuletzt bearbeitet:
Wieso sollte schwarz für das Kontrastverhältnis nicht relevant sein? Auch mit Schwarz lassen sich Details zeichnen, eben im Kontrast zu den umliegenden "andersfarbigen" Pixeln. Unendlich ist aber natürlich trotzdem Quatsch.

Das ist ganz einfach:

Das Kontrastverhältnis ist tatsächlich unendlich. Aber zwischen dem dunkelsten Grau und Aus (Schwarz) liegt genau eine Farbabstufung die du darstellen kannst. Du musst jetzt aber den Bereich zwischen der maximalen Helligkeit und "Aus" unterteilen, sobald du den Abstand dieser Abstufungen kleiner wählst als den Abstand vom dunkelsten Grau zu "Aus" gehen dir Details dazwischen verloren. Daher bringt dir das Kontrastverhältnis allein recht wenig, wenn du wissen willst wie viel Helligkeitsabstufungen du darstellen kannst, was ja für HDR entscheidend ist. (Es ist übrigens genauso wichtig, die Fähigkeit des Auges zu Differenzieren nicht zu überfordern. Denn bei einem normalen Monitor kann man ja Farbunterschiede von +/-1 in der Regel nicht erkennen. Das liegt allerdings an der geringen max. Helligkeit, weiß ist halt einfach viel zu "dunkel" und schwarz viel zu "grau" :).)

Mein Beamer kann mich auch ohne HDR dermaßen blenden dass ich weg gucken muss, das schiebe ich allerdings dem regisseur in die Schuhe, nach einer dunklen Szene macht man eingach keine Überblendung mit vollkommen weißem Bild

Da fällt mir spontan Matrix ein :), und wenn der Regisseur das mit 24 Hz bis 48 Hz (dank sei HFR) lange hintereinander macht liegst du vllt. auch irgendwann zappelnd am Boden :D
 
Zuletzt bearbeitet:
Tuetensuppe schrieb:
Nö, das bedeutet es eben überhaupt nicht, wird doch niemand gezwungen neues Equipment zu kaufen?
Abgesehen von einem neuem Blu-ray-Player.

Steht doch in der News: wenn die Kompatibilität mit HDCP 2.2 beim TV und AV-Receiver nicht gegeben ist, wird automatisch Full HD abgespielt ...

geil du bist ja mal n prakmatiker. mit dir würde ich gern mal n bier trinken gehn. wenns leer ist erkläre ich dir dann dass du nicht n neues kaufen musst und dich auch keiner dazu zwingt und wenn kein bier mehr kommt kannst du automatisch luft aus der flasche zürzeln
 
pmkrefeld schrieb:
Doch, höhere Farbtiefe ist höhere Farbtiefe und kein HDR, statt also einfach 10bit Farbtiefe einzuführen so dass alle möglichen Geräte und Quellen davon profitieren führt man ein proprietäres Stück Marketing ein, es ist schlichtweg der falsche Weg.
Höhere Farbtiefen sind schon lange in den Übertragungsstandards definiert, es fehlt nur ein Argument die (anfangs wohl nicht unerheblich) höheren Preise im Consumerbereich zu rechtfertigen. Ob die Rechtfertigung über einen propritären Standard geschieht oder nicht, ist vollkommen uninteressant. Stecken entsprechende Panels und Scaler im Monitor/TV/Beamer können sie von allem genutzt werden.

Der Kontrast ist nicht unendlich. Das wäre er nur, falls man den Schwarzwert des ausgeschalteten Panels/Pixels als komplett schwarz definiert, was defacto Unfug ist. Er dürfte in passenden Fällen allerdings höher, als der des menschlichen Auges sein.

ix.tank schrieb:
Aber zwischen dem dunkelsten Grau und Aus (Schwarz) liegt genau eine Farbabstufung die du darstellen kannst. Du musst jetzt aber den Bereich zwischen der maximalen Helligkeit und "Aus" unterteilen, sobald du den Abstand dieser Abstufungen kleiner wählst als den Abstand vom dunkelsten Grau zu "Aus" gehen dir Details dazwischen verloren. Daher bringt dir das Kontrastverhältnis allein recht wenig, wenn du wissen willst wie viel Helligkeitsabstufungen du darstellen kannst, was ja für HDR entscheidend ist.
Jetzt verstehe ich was du meinst ...

Die Passage mit dem Differenzieren kann ich allerdings nicht unterschreiben. Es ist gut, wenn wir zwischen einzelnen Helligkeits-/Farbschritten des Monitors nicht unterscheiden können, Banding ist fies und gehört ausgerottet ;)
 
Eigentlich ne coole Sache. Aber ich denke, dass viele Kunden diese Blue-Rays vertauschen. Dann läuft so eine Ultra-Blue-Ray-Disk nicht, weil es die falsche ist. :Freak Bei 66 GB sind locker 50-70 Mbit/s drin. Wird nice

Kann das Ding auch 48, 50 und 60 FPS?
Was mich seit Jahren stört: PAL 50Hz | NTSC 60Hz | 59,4HZ |49,8HZ | 48HZ. Von den Werten noch die halbierten Werte. Das sind alle gängige Frameraten, die nicht untereinander kompatibel sind. Ursprünglich gab es 50 und 60Hz wegen der Stromschaltfrequenz. Vor 10-15 Jahren hätte man sich einigen sollen und sich eine einheitliche Framerate entscheiden sollen. Ich denke 35-40Hz wären nicht verkehrt, was ziemlich flüssig ist und für damalige Zeit ein zu bewältigender Datenaufwand wäre. Jetzt hat fast jedes Display 60/120Hz. Unsere Bildschirme, Laptops, Smartphones, Uhren, Tablets´und TV's können es auch. Aber die Filme werden eiskalt in 48Hz gedreht. :Freak Was passiert in Deutschland/Europa? Wird der Film dann um 4% schneller abgespielt, um auf 50Hz zu kommen? So ist es aktuell. Zudem sieht man bei 48Hz wieder ein leichtes Zuckeln. Unsere Augen sehen ja bis zu 64 FPS. Macht doch einfach 60Hz.

Wird Zeit für GSync/Freesync. Dort wird ein Frame so lange angezeigt, wie er ausgegeben wird. Also zwischen 40-144Hz. Egal ob der Film 24, 30 oder 41 fps hat.
 
Zuletzt bearbeitet:
crustenscharbap schrieb:
Unsere Augen sehen ja bis zu 64 FPS.
Wo hast du das her? Unsere Augen sehen nicht in fps.
Ich kann übrigens am Computer auch noch zwischen 60Hz und 120Hz unterscheiden.
 
crustenscharbap schrieb:
Jetzt hat fast jedes Display 60/120Hz. Unsere Bildschirme, Laptops, Smartphones, Uhren, Tablets´und TV's können es auch. Aber die Filme werden eiskalt in 48Hz gedreht. :Freak Was passiert in Deutschland/Europa? Wird der Film dann um 4% schneller abgespielt, um auf 50Hz zu kommen? So ist es aktuell. Zudem sieht man bei 48Hz wieder ein leichtes Zuckeln.

Von welchen Filmen redest du genau? Bisher liefen soweit ich weis nur die Hobbit Filme in 48fps und das auch nur im Kino.
btw: Um 24/30/48/... Hz Filme auf einem 50/60Hz Display abzuspielen werden die Filme nicht schneller abgespielt., sondern die Frames werden mehrfach angezeigt. Bei nicht-integer Vielfachen der Ursprungsfrequenz logischerweise nicht gleichmäßig (also z.B. nicht jedes Bild einfach 2 mal, sondern beispielsweise jedes 3. Bild 3 mal oder so) und dadurch entsteht das "zuckeln"

xSync ist im (Heim)Kino Bereich unnötig. Jeder TV/Beamer kann schon 24Hz, 50Hz, 60Hz und in der Regel noch andere Bildwiederholraten (25Hz, 30 Hz). Bei neuen Geräten kommt dann halt noch 48 Hz hinzu. Und das reicht, denn niemand wird auf die Idee kommen einen Film in 31,4 Hz oder was auch immer zu drehen (können die Kameras ja auch gar nicht)
 
Es ist ja noch vieles offen. Finaler Standard hätte ich das nicht genannt.

Diese werden voraussichtlich noch dieses Jahr im Handel aufschlagen.

Wie aufschlagen?
Wie eine Rakete oder wie ein Lager?
Im Handel kann nichts "aufschlagen", das ist falsch.
 
Die Passage mit dem Differenzieren kann ich allerdings nicht unterschreiben. Es ist gut, wenn wir zwischen einzelnen Helligkeits-/Farbschritten des Monitors nicht unterscheiden können, Banding ist fies und gehört ausgerottet

Na klar ist das gut, genau das Ziel sollte ja erreicht werden. Aber im Sinne von HDR nützt es nichts die 100.000 Abstufungen auf einen so kleinen Helligkeitsbereich zu verteilen das wir nur 100 davon unterscheiden können. Das meinte ich.
 
Gorerotic schrieb:
Dolby Atmos, dass ich nicht lache...so eine Marketingrotze um Lizenzgebühren abzugreifen hat es in letzter Zeit echt selten gegeben.

Was kann den Dolby dafür wenn die Filme so grottig abgemischt sind??? (vllt nächstes Mal auf richtige Filme warten) Das ist doch irgendwie klar das dieses Upmixing mehr oder weniger wahllos Töne auf die Höhenlautsprecher erweitert, was soll es sonst machen? Man könnte ja demnach auch sagen dass Extended Stereo besser ist als natives 5.1. Ich will Dolby nicht verteidigen allerdings ist das Video schlecht dafür geeignet die Technologie an sich zu Beurteilen, das hat der Herr von Grobi auch am Anfang gesagt.:freak:

Naja, mein Pioneer AVR kriegt es auch auf die Reihe Ton in der Höhe zu simulieren, ganz ohne Atmos oder Höhenlautsprecher und zwar ganz gut.

Für mich sind diese ganzen Tonformate aber eh ohne Bedeutung, die Anzahl der Lautsprecher die dafür benötigt werden ist einfach zu hoch, wenn man einmal ein hochwertiges Paar Stereoboxen stehen hat ist die Erweiterung auf 5.1.4 oder mehr einfach nur exorbitant teuer und für Transmorphers und das Action-Altenheim bestimmt nicht Wert.
 
MoGas schrieb:
Die interessante Frage ist, ob der 4k Standard REC 2020 in Hinblick auf den Farbraum unterstützt.
Der aktuelle Farbraum 709 kann gar nicht alle Farben darstellen, die Menschen sehen können:
Farbraum rec 2020 vs rec 709
Wikipedia rec 2020

nochmal der Link http://4kfilme.de/ultra-hd-blu-ray-spezifikationen-verabschiedet-offizielles-logo/

Erweiterter Farbraum: Der BT.709 bzw. REC709 wurde 1990 verabschiedet und bestimmt seitdem welche Farben auf unseren TV-Geräten wiedergegeben werden. Es wird Zeit für mehr und vor allem natürlichere Farbe. Die 8-bit Farbtiefe der aktuellen TV-Geräte erlaubt 16.7 Millionen verschiedene Farben. Die 10-bit Farbtiefe des BT.2020 (Rec.2020) Standards erlauben 1.07 Milliarden oder sogar 68 Milliarden mit 12-bit. Hierfür müssen nicht nur die Panels der 4K Fernseher, sondern auch die Aufnahme-Technik sowie die Produktionsprozesse angepasst werden.


Für HDR braucht man auch HDMI 2.0a
http://4kfilme.de/hdmi-2-0a-spezifiziert-update-hdr/http://4kfilme.de/hdmi-2-0a-spezifiziert-update-hdr/

"HDMI 2.0a wird per Firmware-/Software-Update eingespielt und benötigt keinen Austausch oder zusätzliche Hardware"
"HDMI 2.0a sollte aber nicht mit HDMI 2.0 Level a verwechselt werden. Letzteres beschreibt HDMI 2.0 Chips mit einer Bandbreite von 18 Gbps welches 4K Inhalte 3.840 x 2.160 Pixel mit 60Hz/50Hz bei voller 4:4:4 Farbabtastung ermöglichen."



Und es gibt drei Einführungsphasen des 4k/UHD Standards, jetzt kommt die 2te mit HDR und 10bit Farbraum.

http://4kfilme.de/ultra-hd-phase-2-nicht-mehr-sondern-bessere-pixel/

http://4kfilme.de/uhd2013-ultra-hd-kompetenz-workshop-wir-moechten-nicht-gleichen-fehler-wie-bei-3d-machen/

"Ultra HD soll die Entertainment- und Unterhaltungselektronik-Branche bis ins Jahr 2020 und darüber hinaus begleiten. In der letzten Einführungsphase werden Bilder mit 7.680 x 4.320 Pixel und Bildwiederholungsraten von 100p oder 120p unterstützt."
 
Zuletzt bearbeitet:
anonymous_user schrieb:
Was nicht stimmt ;) Ist nur eine von vielen Auflösungen. Wenn man nur "4K" sagt kann das alles mögliche sein. Es gibt 3 verschiedene DCI 4K Auflösungen, und UHD ist umgangssprachlich auch 4K weil die Pixel vervierfacht wurden.
K steht für Kilo, sprich mal 1000 (bzw. 1024 im Computerbereich). Also 4K = 4*1024=4096.

Was du meinst ist 4X = 4 Mal. 4K bedeutet niemals 4 Mal, auch nicht umgangsprachlich!
Ergänzung ()

anonymous_user schrieb:
Sowas ist nurnoch für Displays von Relevanz bei denen man direkt vor der Röhre sitzt.
Selbst da nicht, höchsten das Display ist riesig.
 
Zurück
Oben