Dolby Vision

Boogeyman069

Banned
Registriert
Apr. 2022
Beiträge
116
Brauch man das? Das Gerät, was ich mir kaufen möchte, unterstützt dies nicht. (Samsung QN90A)

Mein jetziger schon (Hisense U8QF), aber die Inhalte, wo Dolby Vision verfügbar ist, sind eher gering. Bei neuen Shows, wie "Stranger Things" oder "Umbrella Academy", aber fand das Bild zu meinen normalen Einstellungen eigentlich nur ein bisschen grell.

Wird Dolby Vision dann durch HDR10 ersetzt? Oder kommen dann die normalen Einstellungen?

Hatte HDR10 bis jetzt nur bei Amazon Prime bei "The Boys".
 
Es ist eine andere HDR Technik mit dynamischen Metadaten.
In der Praxis bietet es eigentlich keine Vorteile gegenüber HDR10, muss man also nicht unbedingt haben.
Wenn dein TV kein Dolby Vision unterstützt, wird dann normalerweise HDR10 verwendet.
Oder HDR10+, je nach Quellmaterial.
 
Boogeyman069 schrieb:
normalen Einstellungen eigentlich nur ein bisschen grell.
Was HDR bedeutet ist dir bekannt?

Sind deine Einstellungen bei HDR zu SDR Material gleich?
 
Dolby Vision wäre für mich ein Grund zum Sony Modell mit gleichem Panel zu greifen.
Dolby Vision ist HDR 10 dutlich überlegen, da du da aber wenig affin zu sein scheinst wird es dich wohl nicht stören.
 
Dolby Vision ist deutlich besser als HDR10, da es dynamische Metadaten benutzt und somit das Bild ständig anpasst.
Du scheinst deinen bisherigen TV jedoch falsch eingestellt haben wenn du das Bild als "greller" empfindest.
 
freshprince2002 schrieb:
Es ist eine andere HDR Technik mit dynamischen Metadaten.
In der Praxis bietet es eigentlich keine Vorteile gegenüber HDR10, muss man also nicht unbedingt haben.
Wenn dein TV kein Dolby Vision unterstützt, wird dann normalerweise HDR10 verwendet.
Oder HDR10+, je nach Quellmaterial.


Eines der Grundlegendsten Probleme bei HDR ist, dass das Filmmaterial oft auf einem Display mit einer Maximalen Helligkeit von z.B. 2000 oder 5000 Nits oder auch 10.000 nits gemastert wird und dieses Material nun auf deinem TV dargestellt werden soll, welcher jedoch üblicherweise deutlich weniger schafft, z.B. 800, 1000 oder 1500 nits, je nachdem, welchen TV du kaufst.

Damit also auf deinem TV die höheren Helligkeitswerte die er nicht mehr darstellen kann nicht einfach “abgeschnitten“ werden, braucht man sogenanntes Tonemapping.

Ein Beispiel: Wäre im Video z.B. ein blauer Himmel mit 3000 nits dargestellt und dein TV schafft diese Helligkeit nicht, hat z.B. max 800 nits, dann würde aus dem blauen himmel auf deinem TV nur noch gleißendes Weiß werden, weil das das nächstbeste bzw. das hellste ist, was dein TV schafft.

Damit dieses Abschneiden der Helligkeitswerte bzw. „Clipping“ nicht passiert braucht man wie gesagt Tonemapping. Jeder HDR fähige TV hat einen Tonemapper integriert, der das Videosignal neu interpretiert, so dass es auf deinem TV natürlich aussieht, so würde aus dem Beispiel mit dem 3000 Nits hellen blauen himmel kein weißer Fleck mit 800 nits werden, sondern wieder ein Blauer himmel den den gerät auch darstellen kann, dann eben mit sagen wir mal 600 nits.

Kurz gesagt, wenn das Video viel höhere Helligkeitswerte hat, als dein TV schafft, dann versucht der Tonemapper die Helligkeitswerte für die Fähigkeiten deines TVs neu zu interpretieren.


Das Problem dabei ist nun, dass der Tonemapper im TV bei HDR10 keine Vorgaben bekommt wie er mit dem Videomaterial umgehen soll, weil er nicht wirklich verstehen kann, was gerade dargestellt wird und wie es eignetlich aussehen sollte.
Das führt in der Paxis dazu, dass mit dem Tonemapping über HDR 10 Inhalte generell zu hell oder manchmal auch zu dunkel dargestellt werden.

Mein LG CX OLED neigt z.B. dazu, HDR10 Inhalte eher zu hell darzustellen. Das HDR wirkt dann etwas übetrieben und unnatürlich, weil die Maximale Helligkeit des TVs zu oft angesteuert wird, also auf tendenziell zu viele Bildbereiche gleichzeitig angewendet wird,


Bei Dolby Vision hingegen sind Dynamische Metadaten enthalten mit dessen Hilfe der Tonemapper im TV genau weiß, wie er die Helligkeitswerte für die Fähigkeiten des Displays interpretieren muss. Das führt dann in der Praxis meistens zu einer deutlich differenzierten, natürlicheren und weniger übertiebenen HDR Darstellung.
Die Maximale Helligkeit wird z.B. bei meinem TV dann sparsamer eingesetzt und an weniger Bildstellen ausgesteuert, eben nur noch da, wo es sinnvoll ist, der HDR effekt funktioniert dadurch aber auch besser, weil sich besonders helle Stellen deutlicher vom Rest des Bildes abheben. Insgesamt wirkt das Bild einfach „wertiger“ und realistischer.


Ich persönlich finde Dolby Vision bzw. das Gegenstück HDR10+ (Letzteres wird aber von kaum einem Streaming Dienst unterstützt) schon ziemlich wichtig für eine gute HDR Darstellung.

Mit HDR10 (also ohne das +) muss der Tonemapper im TV eben immer selbst versuchen das beste aus dem Eingangssignal zu machen, weil eben die Metadaten fehlen. Das kann gut gehen oder auch nicht, das kann korrekt aussehen oder auch nicht.


Die Frage ist jetzt, welche Ansprüche du hast. Bist du jemand, der höchste Ansprüche an Bildqualität hat und üblicherweise beim TV sämtliche Bildverbesserer wie Dynamischer Kontrast usw abschaltet, weil er weiß dass sie das Bild verfälschen, dann brauchst du Dolby Vision.

Bist du kein Bildqualitätspurist und legst keinen Wert darauf, ob das Bild möglichst korrekt und natürlich aussieht? Darf es gern mal etwas mehr dynamischer Kontrast oder Nachbearbeitung sein, hauptsache das Bild sieht in jeder Situation lebendig aus, auch wenn das vielleicht vom Film gar nicht so vorgesehen war, dann wirst du wahrscheinlich auch mit dem Tonemapping deines TVs mit HDR10 voll zufrieden sein.


Zudem muss gesagt sein, dass für jemanden der Wert auf hohe Bildqualität legt die unterschiede zwischen Dolby Vision und HDR10 sicherlich ziemlich auffällig sind. Ich kann mir aber gut vorstellen und auch verstehen, wenn jemand, der da keinen so hohen Wert drauf legt sagt, dass es ihm komplett egal ist. Denn idr. Leistet der Tonemapper im TV ja zumindest ausreichend gute Arbeit. Ohne Vergleich zu dolby Vision werden viele keine Nachteile erkennen oder im gegenteil vielleicht sogar HDR10 bevorzugen, weil der Tonemapper das Bild in HDR10 gerne mal etwas heller und kräftiger darstellt, als vorgesehen.




Hier ein Auszug dazu aus Wikipedia

HDR10 is not backward compatible with SDR. It includes HDR static metadata but not dynamic metadata. It doesn't offer the possibility to adjust and optimize the HDR image to the consumer display's capabilities in a way based on the content creator's intent.​

Static metadata[edit]​

Static HDR metadata give information about the whole video.

  • SMPTE ST 2086 or MDCV (Mastering Display Color Volume): It describes the color volume of the mastering display (i.e. the color primaries, the white point and the maximum and minimum luminance). It has been defined by SMPTE[13] and also in AVC[94] and HEVC[95] standards.
  • MaxFALL (Maximum Frame Average Light Level)
  • MaxCLL (Maximum Content Light Level)
The metadata do not describe how the HDR content should be adapted to an HDR consumer displays that have lower color volume (i.e. peak brightness, contrast and color gamut) than the content.[13][95]

Dynamic metadata[edit]​

Dynamic metadata are specific for each frame or each scene of the video.

Dynamic metadata of Dolby Vision, HDR10+ and SMPTE ST 2094 describe what color volume transform should be applied to contents that are shown on displays that have different color volume from the mastering display. It is optimized for each scene and each display. It allows for the creative intents to be preserved even on consumers displays that have limited color volume.

SMPTE ST 2094 or Dynamic Metadata for Color Volume Transform (DMCVT) is a standard for dynamic metadata published by SMPTE in 2016 as six parts.[26] It is carried in HEVC SEI, ETSI TS 103 433, CTA 861-G.[96] It includes four applications:

  • ST 2094-10 (from Dolby Laboratories), used for Dolby Vision.
  • ST 2094-20 (from Philips). Colour Volume Reconstruction Information (CVRI) is based on ST 2094–20.[38]
  • ST 2094-30 (by Technicolor). Colour Remapping Information (CRI) conforms to ST 2094-30 and is standardized in HEVC.[38]
  • ST 2094-40 (by Samsung), used for HDR10+.
ETSI TS 103 572 is a technical specification published in October 2020 by ETSI for HDR signaling and carriage of ST 2094-10 (Dolby Vision) metadata.[97]

HDR Vivid uses dynamic metadata standardized in CUVA 005-2020.[35][36]
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: motorazrv3, KenshiHH, Willmehr und eine weitere Person
Zurück
Oben