Ganz allgemein zu HDR

DolbyStiegital

Cadet 4th Year
Registriert
Apr. 2021
Beiträge
88
Hallo Zusammen,
hab immer mal wieder zu dem Thema HDR und der genauen Funktionsweise recherchiert, aber nie wirklich eine Erklärung gefunden, die mich das Thema so vollumfänglich verstehen lies, dass ich es z.B. selbst jemandem erklären hätte können. Entweder stelle ich mich doof an oder es ist wirklich nicht ganz trivial wie alles zusammenhängt.

Daher dachte ich mir, ich nutze die Gelegenheit, die Frage mal in die Runde zu werfen. Vielleicht bekommen wir ein paar Hinweise hier zusammen, wie die Bit Farbtiefe, Helligkeit, Kontrast, ... im Zusammenhang mit HDR zu verstehen sind.

Es ist doch so:
Standardmäßig hat man 8 Bit pro Grundfarbkanal. Also 256 Abstufungen jeweils für Rot, Grün, Blau.
256^3 ergeben dann die berühmten ca. 16,7 Mio. Farben.

In diesem 16,7 Mio. Farben sind ja dann (nach meinem Verständnis) auch alle Graustufen dabei. Und zwar 256 Graustufen. Die erhält man ja, wenn alle drei Farbkanäle immer gemeinsam den identischen Wert aus 256 haben.
Weiß: 256:256:256
...
Schwarz: 0:0:0

Bei 10 Bit hat man dann 1024 Abstufungen. Ist dann ein "schwärzeres" Schwarz, "weißeres" Weiß (und auch roteres Rot) möglich oder sind die Abstufungen zwischen den 256 vorherigen Stufen feiner, sozusagen mit jeweils drei zusätzlichen Zwischenstufen?

Und wie wirkt sich in den genannten Fällen die Monitorhelligkeit aus? Über die Helligkeit hat man ja (zusätzlich?) die Option, das Schwarz dunkler und Weiß heller zu machen.

Hat man also mit 8 Bit und z.b. 1000cd/m² automatisch HDR weil man sämtliche der 16,7 Mio. Farben in ihrer Helligkeit höher und tiefer abstufen kann?

Aber das kann ja so auch nicht ganz stimmen, sonst müsste man im Grafikkartentreiber ja nicht auf 10Bit umstellen um HDR nutzen zu können.

Interessanter Effekt, der mir gestern erst aufgefallen ist: Wenn ich ingame (HDR Game) ein Screenshot mache und in Paint einfüge, sieht es seltsam überstrahlt und wenig farbenfroh aus.

Freue mich auf ein paar aufschlussreiche Antworten und einen interessanten Austausch!
 
Überdenke mal ob es ein roteres Rot geben kann ... oder ob am Ende nicht einfach die feine Unterteilung einfach besser möglich ist.

Weil Endpunkt = Endpunkt ob der mit 20 Schritt oder 1000 Schritt erreicht wird er ist gleich.

https://de.wikipedia.org/wiki/RGB-Farbraum

Die Wertebereiche für die Farbreize (R, G, B) können unterschiedlich festgelegt sein. Die klassische Darstellung lässt Werte zwischen 0 und 1 (d. h. 0 Prozent und 100 Prozent) zu. Dies orientiert sich an der praktischen klassischen Realisierung mittels Dämpfung vorhandenen Lichts. Computerorientierte Anwendungen verwenden häufig die an der klassischen Form der Abspeicherung angelehnte Schreibweise, es werden Ganzzahlen zwischen 0 und einer Maximalzahl wie 255 abgespeichert.


Muss er ja auch denn ansonsten würde man ja andere Farben darstellen.

ansonsten über HDR und die einzelnen Spezifikationen dazu hast du dich informiert ?

@yxcvb wenn man nur die hälfte beantwortet wohl ...ansonsten nein..

denn am Computer wird das ganze ja noch in viele andere Stufen aufgeteilt ..

https://displayhdr.org/
 
DolbyStiegital schrieb:
Und wie wirkt sich in den genannten Fällen die Monitorhelligkeit aus?
Gar nicht !? Wenn du das Bild aufhellst dann gibt es doch kein Schwarz mehr also verschiebst die Range.
(HDR = High Dynamic Range=Bereich). Die höhere Farbtiefe sorgt dafür, dass es kein Colorbanding gibt.

Wie Hell ein Panel leuchten kann sagt auch nicht aus wie gut HDR ist weil ohne Schwarz ist es Fake HDR.
LCD mit LED Beleuchtung kann ohne Dimming kein Schwarz also sind HDR400, HDR600 usw. nur Fake.

HDR True Black berücksichtigt das aber auch da kann geschummelt werden weil auch mit wenigen
Dimming Zonen kann man Schwarz erzeugen. Im Prinzip kann nur OLED echtes HDR darstellen.
 
DolbyStiegital schrieb:
Weiß: 256:256:256

falsch wenn dann 255:255:255 !

denn die 0 ist auch ein Wert in den 256 Werten
 
DolbyStiegital schrieb:
Weiß: 256:256:256
255

DolbyStiegital schrieb:
Ist dann ein "schwärzeres" Schwarz, "weißeres" Weiß (und auch roteres Rot) möglich oder sind die Abstufungen zwischen den 256 vorherigen Stufen feiner, sozusagen mit jeweils drei zusätzlichen Zwischenstufen?
Du verwechselst Pixelformat mit Farbraum.

Bei 8 Bit hast du die 256 Stufen pro Kanal, bei 10 Bit eben die 1024 Stufen. Aber was das jeweils bedeutet, also wie hell zB das darin ausdrückbare Maximum ist, wie intensiv das damit maximal ausdrückbare Rot ist etc ist Sache des Farbraums und erstmal unabhängig davon.

Man kann die Farben zB auch in YCbCr ausdrücken anstatt RGB und es gab auch schon vor HDR10 verschiedene Farbräume wie DCI-P3 und Adobe RGB oder das für PCs typische sRGB die jeweils unterschiedlich intensive Farben abdecken.
DolbyStiegital schrieb:
möglich oder sind die Abstufungen zwischen den 256 vorherigen Stufen feiner, sozusagen mit jeweils drei zusätzlichen Zwischenstufen?
In der Praxis wird mit HDR PQ Verwendet. Dabei sind die einzelnen Stufen in den Farben nicht ansatzweise linear sondern so gelegt, dass die Abstände fein sind, wo Menschen es besser warnehmen können und zB in den helleren Bereichen (heller als in SDR) viel gröber sind, weil Menschen den Unterschied da nicht mehr so genau wahrnehmen. Wenn das Bild so hell wird, dass du nicht ohne zu Blinzeln länger reinschauen kannst, dann braucht man auch keine feinen Stufen mehr.

Deshalb geht das ganze auch mit 8 Bit Farbtiefe, so wie für Dolby Vision mit 12 und 14 Bit (alles nutzt PQ als das selbe Prinzip der Aufteilung der Werte).
DolbyStiegital schrieb:
Hat man also mit 8 Bit und z.b. 1000cd/m² automatisch HDR weil man sämtliche der 16,7 Mio. Farben in ihrer Helligkeit höher und tiefer abstufen kann?
Da ist ganz die Frage was ausgedrückt werden sollte. Wenn du etwas filmst, was 500 cd/m² hat, das aber in klassisches SDR mit max. 100 cd/m² (oder auch 200) pressen musst, muss man entscheiden, ob man einfach alles dunkler macht, so dass der Unterschied zwischen 450 und 500 immer noch ein Unterschied im Bild ist, nur ein viel kleinerer als im Original oder ob man irgendwann abschneidet und sagt alles heller als 200 ist einfach der maximale Wert.
Wenn "abgeschnitten" wurde, hast du Informationen verloren, die man durch erhellen nicht mehr wieder gewinnen kann. Wenn aber alles nur "komprimiert" wurde, zB mit einer linearen Skalierung dann kannst du das naturlich wieder rückgängig machen (nur dass du gröbere Stufen hast) und das ganze kann theoretisch ähnlich wie HDR aussehen. Aber wenn man HDR-Inhalte zu SDR Konvertiert (Tone Mapping) ist das normalerweilerweise alles andere als linear, weil das sehr suboptimale Ergebnisse bringt.

Edit:
LCD-Monitore haben hier eine zusätzliche Schwierigkeit. Traditionell gehen die Farbwerte nur an das Panel und der Nutzer stellt die Hintegrundbeleuchtung ein wie er will, auch wenn das dann verändert wie stark der Monitor den SDR Farbraum verfehlt. Um HDR Mit Consumer-LCD Technik darzustellen, muss man die Hintegrundbeleuchtung auch kontrollieren, jeweils passend zum aktuellen Bild. Wenn du bei einem klassischen Monitor einfach die Hintergrundbeleuchtung auf 1000 cd/m² hoch reist, ist das dunkelste was der Monitor darstellen kann immer noch verdammt hell. Bei Self-Emissive Techniken wie OLED ist das aber letztendlich was der Monitor intern macht. Ist nur eine Frage wie Farbwerte auf die verfügbaren Helligkeiten und phyisikalisch vom Panel darstellenbaren Stufen gemappt werden.
/Edit

DolbyStiegital schrieb:
sonst müsste man im Grafikkartentreiber ja nicht auf 10Bit
Muss man auch nicht. HDR10 geht auch mit 8 Bit Farbtiefe. Der HDR-Schalter in Windows ist unabhängig von der Farbtiefe.
DolbyStiegital schrieb:
Paint einfüge, sieht es seltsam überstrahlt und wenig farbenfroh aus.
Weil Paint HDR nicht versteht und soweit ich weiß auch kein Format ein- / ausgeben kann, dass HDR-Farbräume kann. Die selben Farbwerte werden also vermutlich einfach als sRGB Werte interpretiert. Da sie das nicht sind / nie waren sehen die Farben ganz anders aus. Typischerweise eben blass, weil PQ eben ganz anders arbeitet als herkömmliche Farbräume das machen.
xxMuahdibxx schrieb:
Überdenke mal ob es ein roteres Rot geben kann
Klar kann es dass, deshalb gibt es ja unterschiedliche Farbräume. Und quasi kein Consumer-Monitor trifft auch nur einen davon exakt.
Ergänzung ()

0ssi schrieb:
Wie Hell ein Panel leuchten kann sagt auch nicht aus wie gut HDR ist
Korrekt, nur ein kleiner Teil davon.
0ssi schrieb:
LCD mit LED Beleuchtung kann ohne Dimming kein Schwarz
Das stimmt nicht ganz. Die Referenzmonitoren nehmen tatsächlich mehrere Panel hintereinander, auf kosten vom Blickwinkel, damit sie besseres Schwarz hinbekommen, granularer als Local Dimming das erlaubt hat. Ist aber natürlich für Consumer LCDs der übliche Weg und wir mit kleineren Beleuchtungszonen immer besser.
0ssi schrieb:
also sind HDR400, HDR600 usw. nur Fake.
Die DisplayHDR400 und 600 Specs machen angaben zu zu erreichen Schwarzwerten während die maximale Helligkeit angezeigt wird. Sie scheinen aber nicht realitätsnahe Tests dafür zu verwenden. Mit 2 Dimmingzonen (eine rechts eine links) kannst du theoretisch rechts perfektes schwarz darstellen und links die maximale Helligkeit. Hilft in der Praxis aber nichts wenn auch nur ein Pixel links nicht schwarz sein soll.
Worauf es hier im wesentlichsten ankommt, ist das Tone Mapping im Monitor. Weil quasi kein Consumer-Monitor darstellen kann, was das HDR Format ausdrücken kann. Der Monitor muss in Echtzeit entscheiden, wie er mit seinen spezifischen Fähigkeiten am nächsten an das gewünschte Bild kommt. Dabei gibt es nicht die eine richtige Entscheidung. Wenn im Dunklen keine Details sind, fällt es vllt nicht auf wenn man für eine Szene Schwarz opfert um helle Dinge darzustellen wie gewünscht. Aber man muss auch unter Umständen die maximale Helligkeit opfern um nicht alle Details in grau absaufen zu lassen. Das so zu machen, dass wir immer noch Unterschiede in den zu hellen Bereichen sehen und das nicht einfach abgeschnitten wird ist die Kunst und sehr schwer.

0ssi schrieb:
HDR True Black berücksichtigt das
Das ist doch extra auf OLEDs ausgelegt. Weil die gerade über etwas längere Zeiträume noch nicht ansatzweise die Helligkeiten von LCD-Monitoren erreichen können. Gerade auf größeren Flächen. Aber da sie das was sie können mit wesentlich besserem Schwarz kombinieren können, müssen sie nicht so hell werden, um einen ähnlichen Effekt zu generieren.
Ergänzung ()

0ssi schrieb:
Im Prinzip kann nur OLED echtes HDR darstellen
Dem widerspreche ich. Keine aktuelle Consumer-Monitor-Technik kann HDR gerecht werden. Jeder Monitor muss dynamisch Abstriche machen. OLED Displays müssen das auch immer noch. Wenn dich die nicht stören, ist das cool, aber das heißt nicht das LCD-Displays kein HDR können. Es sieht nur anders aus. Und die Probleme die aus schlechter Software und schlechtem Tone Mapping entstehen sehen ganz anders aus und Opfern weniger den Kontrast bei OLED.

(Vllt ist es auch wirklich so, dass es einfacher ist keine kapitalen Fehler mit OLEDs zu machen im Tone Mapping, so genau weiß ich das nicht)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DolbyStiegital
@Ray519 es gibt kein roteres berechnetes Rot... Der Wert ist fix für den RGB Raum zur Berechnung..

Was der Darstellungsraum davon anzeigen kann das ist wieder was anderes.
 
Ray519 schrieb:
Es sieht nur anders aus.
Sieht es anders aus weil die Technik nicht in der Lage ist einen hohen dynamischen Bereich darzustellen ?
Dann kann es doch kein High Dynamic Range sprich HDR sein !? Mit extrem vielen LED Dimming Zonen
kann LCD zwar HDR ähnlich aussehen aber das ist dann wie eine Soundbar mit Dolby Atmos also albern.
 
xxMuahdibxx schrieb:
es gibt kein roteres berechnetes Rot... Der Wert ist fix für den RGB Raum zur Berechnung..
Diesen Satz verstehe ich nicht. So weit ich weiß hat HDR10 sehr wohl intensivere Farben als zB sRGB.

0ssi schrieb:
Sieht es anders aus weil die Technik nicht in der Lage ist einen hohen dynamischen Bereich darzustellen
Je nachdem wie man es nimmt. Innerhalb einer Beleuchtungszone ist der Dynamik Umfang wegen der HIntergrundbeleuchtung eingeschränkt. Aber zwischen 2 Zonen kann ein deutlich höherer Umfang erreicht werden, weil LED noch deutlich heller werden kann als OLED. Also eine Frage des Bildmaterials. Sternenhimmel oder ähnlich punktuelle Dinge sind der Todfeind von LCDs. OLED brilliert hier natürlich. Aber Dinge wie eine Glühbirne auf scharzem Hintegrund gehen dann schon relativ gut mit FALD. Aber natürlich, ein guter FALD-Monitor muss besonders an den Rändern von hellen Objekten schummeln. Wenn eine Zone halb schwarz und halb Hell sein soll, muss er sich entscheiden was er auf gibt. Samsung war in der Vergangenheit bekannt dafür bei einem Sternenhimmel die lästigen hellen Pünktchen wegzuoptimieren, damit sie schön tiefes schwarz darstellen konnten. Das war dann natürlich zu extrem.

Abgesehen davon, ist der Punkt von HDR ja auch durchaus auch höhere Helligkeiten wegen der besseren Nähe zur Realität darzustellen und nicht pur Kontrast. Das war ja vorher schon eine wünschenswerte Metrik. So Strand bei strahlendem Sonnenschein oder ein großes loderndes Feuer. Die brauchen hohe Helligkeit um realistisch zu wirken. Und gerade bei flächiger Helligkeit kämpfen die OLED TVs ja noch. In einem hellen Raum ist OLED viel schwieriger. Weil tiefschwarz mit höherer Umgebungshelligkeit nicht mehr so wichtig ist und OLED nicht ewig Hell werden kann.

Da das HDR10 Format bis zu 10000 cd/m² vorsieht, was quasi kein normaler Monitor erreichen kann, macht fast jedes Gerät abstriche. Sie gucken sich an was gerade dargestellt werden soll und versuchen das Bild so zu manipulieren, dass es nicht auffällt, dass man in die Grenzen rennt. Ein OLED versucht einfach alles dunkler zu machen wenn es zu hell wird. FALDs versuchen Highlights dunkler zu machen, die eine Zone sonst zu werden lassen würden. Wenn sie es gut machen, fällt dir nicht auf, dass du gerade nicht siehst was die Autoren im Bild hinterlegt haben.
 
@Ray519 ... Farbwert der berechnet wird ungleich Farbwert den der Monitor erzeugen kann .
 
Vielen Dank für die teils sehr ausführlichen Antworten. Das hilft mir alles schon weiter fürs Verständnis.

xxMuahdibxx schrieb:
ansonsten über HDR und die einzelnen Spezifikationen dazu hast du dich informiert ?
Ja soweit schon, aber gerade auch der Wiki-Artikel ist mir persönlich zu unverständlich mit den ganzen Videonormen. Die unterschiedlichen HDR-Specs sind mir soweit aber bekannt.
Sebbi schrieb:
falsch wenn dann 255:255:255 !

denn die 0 ist auch ein Wert in den 256 Werten
Sorry. Flüchtigkeitsfehler, selbstverständlich 255. Aber war ja klar was ich gemeint habe: Den Maximalwert eben.
Ray519 schrieb:
In der Praxis wird mit HDR PQ Verwendet
Das ist interessant, kannte ich nicht. Macht aber sehr viel Sinn!
Ray519 schrieb:
Muss man auch nicht. HDR10 geht auch mit 8 Bit Farbtiefe. Der HDR-Schalter in Windows ist unabhängig von der Farbtiefe.
Okay hier hatte ich wohl einen Irrtum, dass HDR zwingend an die 10bit geknüpft sind. In dem Fall ist das nur gut gegen Colorbanding.
Würde das aber dennoch im Treiber aktiviert lassen, weil ich hier und da in Games bemerkt habe, dass Color-Banding reduziert ist. Speziell bei Rauch in sehr dunkler Umgebung gut zu erkennen.

Kann man sich dann ein HDR-Signal so vorstellen (z.B. für einen Pixel), dass es einen Farbwert enthält (255,255,255) und einen zusätzlichen Helligkeitswert (in Prozent? weil in cd/m² macht ja kein Sinn).

Und dann der Monitor, wie oben beschrieben, live entscheiden muss wie er das nun umsetzt?
Dann kann ein vollflächig grünes Bild noch in der Helligkeit Unterschiede haben durch das HDR-Signal?

Wenn das so ist und HDR dann für jede Farbe (auch wenn nur 8bit) hier noch ganz viele Helligkeitsstufen quasi als Info (oder Wunsch) mitschickt dann ist das doch wie eine Erhöhung der Farbtiefe.
256 Farbstufen + noch so und so viel Helligkeitsstufen on top (was dann je nach Monitor mal mehr mal weniger ausgeschöpft wird).
 
  • Gefällt mir
Reaktionen: DolbyStiegital
DolbyStiegital schrieb:
und einen zusätzlichen Helligkeitswert
Nein, die Helligkeit ist in die Farbwerte integriert. Das Standard-Weiß (auch Papierweiß genannt), liegt bei HDR mit 10 Bit irgendwo zwischen 400,400,400 und 600,600,600. Alles darüber ist heller und konnte vorher nicht ausgedrückt werden.
Dass das nicht klar definiert ist liegt daran, dass SDR ursprünglich mit 100 cd/m² für das hellste Weiß definiert wurde, aber diverse Medienersteller haben angefangen das zu ignorieren und nehmen 200 cd/m², weil in der Praxis kein TV und die wenigsten Monitore auf so einer niedrigen Helligkeit stehen.
DolbyStiegital schrieb:
dann ist das doch wie eine Erhöhung der Farbtiefe.
Mit 10 Bit definitiv. Mit 8 Bit weiß ich nicht, hier müsste man auf einem Graphen die Werte nebeneinander sehen. Es ist aber nicht Linear wie "jeder Schritt wurde in 4 Unterschritte unterteilt". Die Aufteilung wurde komplett neu gedacht für das menschliche Auge. Dabei ist auch mehr Präzision herausgekommen.

Die Entwickler, Dolby, sagen aber, dass man 12 Bit bräuchte um keine Bänder mehr zu sehen über den ganzen Wertebereich. Also gut möglich, dass es mit 10 Bit nicht überall präziser ist als klassische Farbräume mit 8 Bit.
Ergänzung ()

xxMuahdibxx schrieb:
Farbwert der berechnet wird ungleich Farbwert den der Monitor erzeugen kann
Klar, wenn der Monitor nicht 100% Abdeckung des Farbraums hat und perfekt kalibriert ist, wird er den Farbwert nicht exakt so reproduzieren, wie dieser definiert ist. Aber wo soll hier der Unterschied zwischen SDR und HDR sein?
Da HDR einen größeren Farbraum beschreibt ist es hier schwerer/seltener alle Farben, besonders in den Randgebieten korrekt wiederzugeben. Aber das Monitore limitiert sind und rein physikalisch nicht alle Farben des Farbraums wiedergeben können gab es schon lange davor.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DolbyStiegital
Die Helligkeit ist nicht immer im Farbwert integriert.. je nach verfahren pro Bild sogar extra als Zusatzinformation.

Steht aber bei den ganzen Sachen dabei..

.
 
xxMuahdibxx schrieb:
Die Helligkeit ist nicht immer im Farbwert integriert
Hatte ich nicht RGB dazu geschrieben? Mist. Das gilt natürlich nur für RGB worüber wir hier hauptsächlich geredet hatten und was auch das entsprechende Beispiel war.
Bei YCbCr dagegen ist ein Kanal die Helligkeit und die anderen beiden bilden die Farbinformation. In der Video und TV-Welt wird das Format verwendet. lässt sich aber 1:1 umrechnen in RGB.
 
@Ray519 es ging um die zusätzlichen Informationen zur Helligkeit bei HDR am Ende..das dort auch mehr Informationen da sind.
 
Danke nochmal für die Erläuterungen und die informativen Links. Das hat mir weitergeholfen!
 
Hallo Zusammen,


ich hoffe ich bin im richtigen Thread.

Mal eine Frage.

Ich habe mich gestern und Heute dabei verloren nach einem Monitor zu suchen für meine PS5. Ich bin sie alle durch gegangen die in Frage kämen.

Allerdings gerate ich gerade beim Thema HDR schnell ins trudeln.

Ich habe gelesen, Display HDR 400 beispielsweise, wäre nicht empfehlenswert da Local Dimming fehle - allerdings sind die meisten Monitore auf dem Markt mit 400 ausgestattet. 600 wäre wohl gerade mal Minimum, wonach man sich mindestens richten sollte. Und sobald ich nach DisplayHDR1000 suche, finde ich so gut wie nichts, außer viel zu überteuerte Angebote, oder die übrigen Spezifikationen stimmen nicht mit dem gewünschtem überein - entweder fehlt HDMI 2.1, die Bildwiederholrate ist unzureichend ( brauche mindestens 120 für die ps5 ) usw.

Daher die Frage :

Bemerkt man wirklich einen Unterschied zwischen 600 und 1000 oder gar 1400 ??

Mir ist HDR deshalb ein so wichtiges Thema, da es für mich in Games einen gehörigen Anteil zur Immersion bringt. Games betrachte ich eher als Simulationen.

Gut das war’s von mir.

Beste Grüße 🖖
 
Zurück
Oben