HDR unter Windows, Howto

Beherrscht windows 11 überhaupt die korrekte nearblack Darstellung von HDR Inhalten?
https://www.reddit.com/r/htpc/comments/10zr4q3/windows_11_htpc_hdr_black_level_calibrationblack/

Habe das gleiche Problem
20250418_023152.jpg

20250418_022616.jpg

Das hdr nearblack Testmaterial ist auf youtube verfügbar oder auch als Rohmaterial.


Download: https://drive.google.com/drive/folders/1UnPiHQrJjldIPbfVwt95S7ck0tvR4yUM

Wiedergegeben über mpv, vlc und mpc-hc

Natürlich sollte zuvor die Clippinggrenze korrekt eingestellt sein, in meinem Fall liegt sie bei 600 nits Peak (notebook oled) und dort wird auch wie vorgesehen mit entsprechenden Anpassungen geclippt.
Jedenfalls außerhalb youtube's, sowohl brave als auch der edge broswer führen offenbar ein eigenes HDR Tonemapping durch und lassen das Testmaterial erst bei 1000 nits clippen.

Hdr White clipping test

https://drive.google.com/drive/folders/17z94AGSQN7m0VLS1oDEkViQlr0wvpWhG



Auch interessant: den Schwarzwertregler ("Helligkeit") in der Radeon Treibersoftware bewirkt von Stufe 0-3 keinerlei Veränderung, ab Stufe 4 erhöht sich der Schwarzwert sprunghaft und dann werden auch die unteren Graustufen 66/ 68 schwach sichtbar.
Nützt mir dann aber auch nichts

Alles getestet im abgedunkelten Raum, in sdr werden die Graustufen hingegen korrekt abgebildet

Wer weiß was?
 
Zuletzt bearbeitet:
Stagefire schrieb:
Finds auch immer schade das wenn Leute was behaupten und ihnen das Gegenteil gezeigt wird sie sich dann nich mehr melden um ihren fehler nich eingestehen zu müssen. .... jeder liegt halt mal falsch auch ich hin und wieder mal das is völlig normal und nichts schlimmes.
War das an mich gerichtet?

Wo widersprichst du mir denn? Die EDID Daten erlauben, dass ein Monitor seine Grenzen angibt. Diese Angaben sind nicht an eine Zertifizierung von Vesa oder so gekoppelt.

Ich dachte, die Angaben wären verpflichtend um HDR anbieten zu können, dem ist scheinbar nicht der Fall. Aber wenn der Monitor sich weigert etwas anzugeben, obwohl das nötig wäre, dann ist das Schuld des Monitors.


Falls Windows diese Angabe, wenn vorhanden ignorieren sollte und einfach eine willkürliche Nimmt, es sei denn das Monitormodell wäre bekannt und auf einer "zertifiziert" Liste, wäre das selbstverständlich auch falsch. Aber davon bin ich nicht im geringsten überzeugt, und das hast du auch in nicht dargelegt.

Wenn man das nachweisen kann, das Windows, die Grenzen aus den EDID Daten ignoriert und immer irgendeine lokale Lookuptabelle nimmt, nur nach Monitormodell und einer Microsoft dafür bekannten Zertifizierung wäre das natürlich sehr falsch und von Microsoft zu korrigieren.

Aber ich denke, das ist hier viel mehr, dass die Hersteller teilweise Faul sind und teilweise sowas absichtlich machen, um ihre neuen dynamischen Tone-Mapping Dinger zurecht zu hacken. Denn wenn der Monitorhersteller irgendein crazy Mapping bei sich und ganz intelligent machen will, dann funkt ihm vllt irgendein Processing von der Videoquelle dazwischen oder macht es schwerer.

Hier würde ich erwarten, dass die Standards sagen, wenn der Monitor keine Grenzen angibt, dann gilt der maximale HDR10 Raum. Und wenn Microsoft dann in der Praxis sieht, viele Monitor geben nichts an und vom Maximum auszugehen macht es für die Mehrheit der Monitor in der Praxis schlechter, könnte das auch erklären, warum die dann da einen "realistischeren" Grenzwert stattdessen reinhacken.


Aber letztendlich, nur Standards können das koordinieren. Und jeder der den Standard irgendwo bricht ist mitverantwortlich und sollte angehalten werden den Standard einzuhalten oder mindestens Schalter dafür zu bieten, weil sonst jeder nur gegen statistische Erscheinungen kämpft, die sich nach Release nur wieder ändern.

Und wenn wir uns hier darüber austauschen, sollten wir versuchen, solche Hacks von dem was eigentlich gelten sollte zu trennen, weil das eine kann halt sehr kurzlebig sein und mit jedem Update oder neuem Produkt wandern, während das andere dann eher der Mittelpunkt sein sollte, um den sich alles dreht und bei dem man hoffentlich ankommt, wenn alle realisiert haben, das die Hacks langfristig nur alles schlimmer machen.

Die Fragen sind also, wie definiert der EDID Standard was "undefiniert" in diesen Infos bedeutet? Macht Windows das falsch? Hat der Monitorhersteller einen guten Grund für diese Angabe? Oder liegen beide falsch und raten stattdessen nicht zueinander passenden Kram? Und sollte ein Monitor, der nicht den gesamten HDR10 Raum darstellen kann, das aber in den EDID Infos verheimlicht, nicht mal mindestens einen OSD Schalter haben um sein Fancy Processing abzuschalten und ehrliche Angaben zu machen. Denn hier könnte es ja auch sein, dass die Quelle in Zukunft besseres Processing hat, während was auch immer im Monitor eingebaut ist, zwar den Monitor besser versteht, aber eben typischerweise nicht nachträglich verbessert wird. Und Monitore, die "seltsame" Eigenschaften haben, die man in den aktuellen EDID Daten nicht beschreiben kann, werden langfristigt vermutlich das Nachsehen haben, weil wenn sie in der Masse ankommen, wird es garantiert auch Erweiterungen geben, um das ganze mit EDID zu beschreiben, so dass es eben besser, generischer gelöst werden kann.
 
Suspektan schrieb:
Beherrscht windows 11 überhaupt die korrekte nearblack Darstellung von HDR Inhalten?
https://www.reddit.com/r/htpc/comments/10zr4q3/windows_11_htpc_hdr_black_level_calibrationblack/

Habe das gleiche Problem
Anhang anzeigen 1608464
Anhang anzeigen 1608476
Das hdr nearblack Testmaterial ist auf youtube verfügbar oder auch als Rohmaterial.


Download: https://drive.google.com/drive/folders/1UnPiHQrJjldIPbfVwt95S7ck0tvR4yUM

Wiedergegeben über mpv, vlc und mpc-hc

Natürlich sollte zuvor die Clippinggrenze korrekt eingestellt sein, in meinem Fall liegt sie bei 600 nits Peak (notebook oled) und dort wird auch wie vorgesehen mit entsprechenden Anpassungen geclippt.
Jedenfalls außerhalb youtube's, sowohl brave als auch der edge broswer führen offenbar ein eigenes HDR Tonemapping durch und lassen das Testmaterial erst bei 1000 nits clippen.

Hdr White clipping test

https://drive.google.com/drive/folders/17z94AGSQN7m0VLS1oDEkViQlr0wvpWhG

Innerhalb youtube's wird wie im reddit Beitrag bei mir der untere Bitwert 68 nicht dargestellt, außerhalb youtube's ist bereits Bitwert 72 nicht sichtbar.

Auch interessant: den Schwarzwertregler ("Helligkeit") in der Radeon Treibersoftware bewirkt von Stufe 0-3 keinerlei Veränderung, ab Stufe 4 erhöht sich der Schwarzwert sprunghaft und dann werden auch die unteren Graustufen 68 /72 schwach sichtbar.
Nützt mir dann aber auch nichts

Alles getestet im abgedunkelten Raum, in sdr werden die Graustufen hingegen korrekt abgebildet

Wer weiß was?
Windows und HDR…. Theoretisch kann Windows es, praktisch siehst du das Problem ja aktuell selbst. Das was ich immer als erstes mache ist eine HDR Kalibrierung. Danach gehts mmn mit der Darstellung. Mal sehen wie es mit dem OLED dann wird.
 
@Salamimander HDR lässt sich unter windows nicht kalibrieren, nur weil die Clippinggrenzen einstellbar sind.
Abgesehen davon werden die mit der windows calibration app hinterlegten Daten nur von entsprechenden Apps (vorrangig hgig kompatible Games und auto hdr) ausgelesen und berücksichtigt.
Wie gesagt, clipping Grenzen sind korrekt eingestellt, 0 nits min, 600 nits max.
Ergänzung ()

Salamimander schrieb:
Windows und HDR…. Theoretisch kann Windows es, praktisch siehst du das Problem ja aktuell selbst. Das was ich immer als erstes mache ist eine HDR Kalibrierung. Danach gehts mmn mit der Darstellung. Mal sehen wie es mit dem OLED dann wird.
Dann wundere ich mich aber, dass dieses Problem kaum genau benannt wird und soweit ich weiß war win10 nicht von diesem Black Crush betroffen.
 
  • Gefällt mir
Reaktionen: Stagefire
Ein weiterer Nutzer hat das Problem unter win11 bestätigt, unter win10 tritt es bei ihm NICHT auf!
Getestet sowohl mit nvidia API als auch windows API

Naja, windows und seine HDR implementierung eben, vielleicht mit madVR und notfalls reshade zu beheben.
 
Ray519 schrieb:
War das an mich gerichtet?

Nein das war nun nich nur speziell auf dich gemünzt sondern allgemein gemeint
weil ich das hier und da mal erlebe aber klar da es nun ein halbes Jahr gedauert hat bis du
geantwortet hast könnte man das nun auch auf dich beziehen

Musste mich eben erstmal wieder einlesen da das worauf du nun geantwortest hast n Halbes Jahr her is


Ray519 schrieb:
Wo widersprichst du mir denn? Die EDID Daten erlauben, dass ein Monitor seine Grenzen angibt. Diese Angaben sind nicht an eine Zertifizierung von Vesa oder so gekoppelt.

Richtig ... sondern die gibt halt der Monitor / TV Hersteller vor bzw eigentlich der Panel Hersteller

Und TV und Monitor Hersteller können dann wenn sie den möchten ihr Gerät der VESA vorlegen und VESA
schaut dann im Bereich HDR was der so leisten kann und kategoriesieren dann nach dem sie das
Gerät getestet haben das Gerät dann in eine Kategorie ein.

Aber es gibt keine Pflicht das alle Geräte Hersteller egal ob TV oder Monitor nun ihr HDR Gerät
der VESA vorlegen müssen sondern das ist Freiwillig

Und auch ein Gerät das nicht der VESA zum Test vorgelegt wurde kann ein super duber HDR Gerät sein

Ray519 schrieb:
Ich dachte, die Angaben wären verpflichtend um HDR anbieten zu können, dem ist scheinbar nicht der Fall.

Korrekt ... zb haben alle LG OLED TVs vorzügliches HDR aber eben keine VESA HDR Zertifizierung weils eben
TVs sind aber die VESA HDR Kategorien sind eher für Monitore gedacht und den Herstellern steht es
frei ob sie ihr Gerät der VESA vorlegen wollen oder nicht

Also auch wenn ein Gerät nicht der VESA vorgelegt wurde und das Gerät somit keine VESA HDR Kategoriesierung bekommen hat kann es dennoch super HDR haben

Gibt ja auch zb viele Monitore die super mit Gsync Compatible laufen obwohl Nvidia diese Geräte noch
garnicht getestet hat und sie somit noch keine Gsync Zertifizierung bekommen haben aber dennoch laufen
dann auch die mit Gsync Compatible.

Ray519 schrieb:
Aber wenn der Monitor sich weigert etwas anzugeben, obwohl das nötig wäre, dann ist das Schuld des Monitors.

Nein .. eher des Geräte bauers der die Software also das OS des Monitors gebaut hat der der hat dann
vergessen die EDID für andere Geräte freizugeben bzw die Helligkeitswerte freizugeben bzw
sie halt schlicht nich hinterlegt hat ... aber das Gerät hat dann natürlich trotzdem Menge X an Nits
ganz egal ob die Daten nun in der EDID stehen oder nich

Aber jene Helligkeitswerte erfährt man ja in Reviews der Geräte


Hier zb ein 2025er LG G5 High End OLED TV

der hat super HDR hat aber dennoch keine Helligkeits Werte in der EDID hinterlegt bzw kann Windows und CRU ( Costum Resolution Utility ) auf diese EDID Daten nich zugreifen und eine VESA HDR Zertifizierung
hatter auch nich aber dennoch hat der Spitzen HDR :



Screenshot 2025-04-19 224006.png



Screenshot 2025-04-19 233952.png



Screenshot 2025-04-19 234016.png





Ray519 schrieb:
Falls Windows diese Angabe, wenn vorhanden ignorieren sollte und einfach eine willkürliche Nimmt, es sei denn das Monitormodell wäre bekannt und auf einer "zertifiziert" Liste, wäre das selbstverständlich auch falsch.

eher hat Windows / CRU keinen Zugriff auf Speziell diese Daten der EDID

Bei meinem 2020er LG 48" CX OLED TV zeigt CRU dann das an

Screenshot 2025-04-19 224153.png



Statt das : ( die 128 stehen für 800 Nits die mein 48" CX hat .. kann man dort manuell einfügen )

Screenshot 2025-04-19 224210.png




Und Windows 11 zeigte damals noch das an bei meinem 800 Nit LG 48" CX OLED TV :
( das ist der Windows Default Wert den Win dann nimmt wenn Win die in der EDID hinterlegten
daten nich lesen kann bzw sie vom Geräte Herstellen dort nicht hinterlegt wurden )


Screenshot 2025-04-19 224420.png




statt das wie es korrekt wäre :


Screenshot 2025-04-19 224505.png




Da Windows / CRU nicht auf die in der EDID Hinterlegte Helligkeitswerte zugreifen kann
bzw sie von LG nicht hinterlegt wurde weils halt n TV is.

Aber wie gesagt durch Reviews erfahren wir ja dann die HDR Helligkeitswerte die man dann eben
zb bei CRU einfach selbst händisch eintragen kann


Screenshot 2025-04-19 224701.png


https://www.rtings.com/monitor/reviews/lg/48-cx-oled



Da aber eh nur die wenigsten HDR Games auf diese Windows Nit Daten zugreifen und eben somit auch
nur wenig auf die Win 11 HDR Kaliberungs App Daten isses eh wurscht ob da nun 1.499 nits oder 800 nits
steht vorallem da man ja im Game Menu das HDR nochmal gesondert kalibrieren kann

Screenshot 2025-04-20 001601.png


Screenshot 2025-04-20 001623.png



Screenshot 2025-04-20 001703.png



Screenshot 2025-04-20 001738.png



Ray519 schrieb:
Wenn man das nachweisen kann, das Windows, die Grenzen aus den EDID Daten ignoriert

Nicht Ignoriert sondern kein Zugriff hat bzw sie nich von Geräte Hersteller dort hinterlegt wurden

Ray519 schrieb:
Aber ich denke, das ist hier viel mehr, dass die Hersteller teilweise Faul sind und teilweise sowas absichtlich machen, um ihre neuen dynamischen Tone-Mapping Dinger zurecht zu hacken.

Dynamic Tone Mapping hat 0 mit den Max Nits des Gerätes zu tun

Dynamic Tone Mapping ändert nur die Helligkeits Bereiche der Objekte auf dem Bild und passt sie selbständig an .. aber wenn das Gerät Max 800 Nits kann ( das erfährt man ja aus Reviews wie gesagt ) dann ändert
das Dynamische Tone Mapping daran auch nix weil mehr als 800 geht dann halt nicht weil
Hardware Limitation vom Panel selbst alles was dann vom Tone Mapping mehr Nits zugewiesen bekommt
als 800 nit clippt raus weil das Panel eben nicht mehr als 800 Nit darstellen kann in diesem Beispiel.

Im übrigen mag ich Dynamic Tone Mapping ganz gern da ich damit die Mid Tones etwas heller bekomme
ohne da groß mit Reshade nachhelfen zu müssen.

Denke wenn ich dann 2027 vom 2020er LG 48" CX OLED TV zum 2027er LG 42" / 48" G7 OLED TV wechseln
werde werde ich auch HGIG nutzen können da mein 2020er CX halt in HDR nich die hellste Birne is mit
nur 800 Nits max aber der 2027er G7 wird dann ziemlich ab gehen .. selbst der 2025er G5 geht schon gut ab
wie du ja weiter oben sehen konntest der kommt ja auch schon auf so 2.200 - 2.600 Nits je nach dem
ob Game Mode oder Filmmaker Mode ... im Vivid / Lebhaft Mode geht er sogar rauf auf 3.100 Nits
aber der VIVID Mode is halt unakkurat und mir auch zu bunt.




Screenshot 2025-04-19 232442.png


Screenshot 2025-04-19 233605.png


Screenshot 2025-04-19 232452.png




Screenshot 2025-04-19 232617.png


Screenshot 2025-04-19 232633.png





Ray519 schrieb:
Hier würde ich erwarten, dass die Standards sagen, wenn der Monitor keine Grenzen angibt, dann gilt der maximale HDR10 Raum.


Der Maximale HDR10 Raum sind 10.000 Nits was nur ne Handvoll TVs bisher erreichen



Screenshot 2025-04-19 230544.png



https://en.wikipedia.org/wiki/HDR10



Screenshot 2024-05-09 161012.png


Screenshot 2024-05-09 161037.png



Screenshot 2024-05-09 160906.png





Heatmaps ... da sieht man gut die einzelnen Helligkeitsbereiche der Objekte Farblich dargestellt


Schwarz Weiss = 0 - 100 Nits

Die anderen Farben kannst du ja dann mit hilfe des Helligkeits Histogramms unten Rechts entschlüsseln


3.jpg









3.jpg


4.jpg


Screenshot 2025-01-14 172220.png




Hier auch nochmal n anderes :

hdr-01a.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ExBergmann und Slipknot79
Stagefire schrieb:
zb haben alle LG OLED TVs vorzügliches HDR aber eben keine VESA HDR Zertifizierung
Warum kommst du als mit der Zertifizierung an. Ich rede von der Angabe der maximalen Helligkeit in den EDID Daten. Das ist wie du bestätigt hast, unabhängig von einer Zertifizierung von einer von mehreren möglichen Organisationen.

Das klingt eher als kannst du da was nicht auseinanderhalten. Oder nicht erklären wo du da den relevanten Zusammenhang siehst.
Stagefire schrieb:
Da Windows / CRU nicht auf die in der EDID Hinterlegte Helligkeitswerte zugreifen kann
bzw sie von LG nicht hinterlegt wurde weils halt n TV is.
Meine Güte, du wirfst einfach 10 Dinge zusammen und begründest keine davon.

CRU kann nicht auf EDID Daten Zugreifen? Informier dich mal was CRU macht. CRU kann auch die Binärdaten dumpen, damit man sie mit anderen Tools oder manuell interpretieren kann, falls du an der Interpretation von CRU zweifelt. CRU ist auch nicht das einzigste Tool, dass EDID Daten dumpen kann.

Auch werden damit ja nicht die Daten im Monitor geändert, sondern das wird irgendwo in Windows hinterlegt. Die EDID Daten werden aber von der GPU, dem GPU Treiber und dann Windows genutzt. Es ist durchaus möglich, dass was du in CRU einstellst, nicht berücksichtigt wird von irgendeinem Tool, weil nicht geschaut wird, was irgendwo in der Registry steht, sondern direkt genutzt wird was der Monitor sagt.

Auch irgendeine weitere Begründung das 1499 nits ein "Windows Standard" ist? Oder basiert das nur auf deinem einem TV?

Und ob Windows die vom Monitor angegebenen Grenzen nutzt oder nicht war genau meine Frage. Denn diese zu ignorieren und dann willkürliche Werte anzunehmen wäre durchaus falsch. Aber wie bei VRR könnte es interne Listen geben. Wie Nvidia zB sehr wohl die VRR Grenzen aus den EDID Daten lesen kann. Aber auch eine Treiber-Interne Liste nutzen kann, aus der sich auch die Zertifizierung von Nvidia ergibt, ohne die VRR nicht vollautomatisch angeschaltet wird und die evtl engere VRR Grenzen setzen kann, wenn Nvidia der Meinung ist, dass es nur dann zufriedenstellend geht. Hat Windows so eine Liste für Microsoft bekannte Monitore und zertifizierungen? Wahrscheinlich, weil aus den EDID Daten ergibt sich keine Zertifi
Stagefire schrieb:
Dynamic Tone Mapping hat 0 mit den Max Nits des Gerätes zu tun
???

Tone Mapping beinhaltet, wie man Farbwerte aus dem Quellmaterial zu einem limitiertem Display mappt. Wenn zB das Quellmaterial HDR10 mit bis zu 10000 nits maximal ausnutzt, dein Monitor aber nur 800 nits max. kann, dann muss man das auf die eine oder andere Weise machen. Das Ziel ist dabei, nicht hart zu clippen. Man will zB die Helligkeiten so komprimieren, dass der Mensch noch einen Unterschied zwischen 2 Flächen sehen kann, die eigentlich 5000 und 10000 nits sein sollten. Dazu wird alles ab einer gewissen Grenze in der Helligkeit abgesenkt um unter das Limit des Displays zu kommen. Für Farben die der Monitor so nicht darstellen kann genauso. Die schrottigste Lösung wäre einfach alles über dem Limit gleich darzustellen.

Dafür gibt es zB HDR Metadaten, die die maximale Helligkeit und die durchschnittliche Helligkeit vom Bildmaterial angeben, so dass man diese Grenzen vom Tone Mapping anpassen kann. Wenn der Film maximal 1000 nits nutzt, braucht man nicht alles so stark komprimieren in der Helligkeit.
Und dafür gibt es auch Standards passend zu den HDR Formaten. Nur sind OLED Monitore da etwas mehr problematisch, weil die zB eher unter Flächenlimitierungen leiden (auf kleinen Flächen können sie sehr hell, aber weniger, je flächiger), genauso wie Zeitlimits. Das ist schwer im Tone-Mapping auf dem PC zu berücksichtigen, gerade mit den Metadaten von HDR10, weil dazu müsste der PC diese ganzen Eigenschaften des Displays gut genug verstehen.

Dynamic Tone Mapping ist ein Marketing Begriff der TVs, die HDR Metadaten aus dem Quellmaterial teilweise zu ignorieren und das selbst in die Hand zu nehmen. Das gibt dem Monitor mehr Kontrolle um seine eigenen, speziellen unzulänglichbenkeiten drum herum zu arbeiten. Aber erzeugt dann auch gerne so Effekte, das die selbe, eigentlich genormte und identische Helligkeit anders hell dargestellt wird, je nachdem was sonst noch helles zu sehen ist. Effektiv kann der Monitor seine Fähigkeiten so besser ausnutzen, auf kosten von einer gleichmäßigen Darstellung. Weil dein Objekt auf dem Display plötzlich dunkler wird, nur weil runterhum hellere Dinge auftauchen.

Das ist immer noch Tone Mapping, manipuliert immer noch an den Helligkeiten des Quellmaterials herum um sie möglichst gut in den darstellbaren Bereich zu bringen. Es hat halt andere Ziele als was der HDR10 Standard plant, wo versucht wird die selbe Helligkeit durch einen Film weg gleich darzustellen. Dolby Vision hat dafür zB HDR Metadaten pro Szene, damit das Quellmaterial pro Szene den Fokus vom Tone Mapping verschieben kann, ohne dass der Monitor versuchen muss zu raten. Aber auch ohne dass man es in der selben Szene sieht. Das machen OLED TVs aber eh schon von ganz alleine und zwangsläufig, so dass das dort vllt deutlich weniger auffällt.

Ein Film kommt mit fixen Helligkeiten und sieht vor, dass das Display das Tone Mapping macht. Ein Spiel könnte auch je nach Monitor / Einstellung einfach alles anders angeben, also quasi das Tone Mapping schon ins Spiel backen. Muss aber technisch nicht sein, denn die HDR Kette muss für anderes Material sowieso schon mit Tone Mapping umgehen können.

Wenn du glaubst das hat alles nichts mit der maximalen Helligkeit des Monitors zu tun (Spitze und Fläche und langfristig), dann hast du nicht verstanden was das tut.
Stagefire schrieb:
Der Maximale HDR10 Raum sind 10.000 Nits was nur ne Handvoll TVs bisher erreichen
Ach, sag bloß.

Deshalb gehört Tone Mapping ja so grundsätzlich zu HDR dazu. Und mit korrektem Tone Mapping kann man auch mit einem Display mit maximal 400 nits noch was aus HDR gewinnen. Insbesondere wenn SDR Material gemastert wird für eine maximale Helligkeit von 100 oder 200 nits.

Und die Frage war nicht nach HDR10 oder BT.2020. Die Frage war danach, was die Standards für HDR in EDID sagen, gilt, wenn der Monitor keine Angaben zu maximaler Helligkeit macht. Ich weiß es nicht. Die Optionen sind: maximale Helligkeit des HDR Formats oder irgendein Wert in der Mitte.

Ein Monitor könnte das also absichtlich so angeben. Wenn Windows dann aber von anderen Werten ausgeht, sorgt das natürlich für Probleme. Für dein Beispiel ist die Frage nur: sagt der Standard 1499 nits sind anzunehmen? Oder kommt das aus einer internen Liste von Microsoft für deinen Monitor basierend auf Erfahrungswerten oder irgendeinem Standard / Hersteller?. Oder rät Windows das, weil das ein Wert ist, der für die Mehrheit der Windows-Nutzer mit Monitoren die keine Angabe machen grob am besten war?
Für meine HDR-Fähigen Monitore gibt Windows unter maximale Helligkeit exakt die Werte an, die der Monitor in den EDID Daten angibt. Nur jeweils gerundet auf ganze Zahlen.

Und der TV wird von Windows nicht erkannt. Zeigt nur "unbekannt" an. Und auch das passt, weil der nur im Dolby Vision Block diese Daten angibt und nicht den nicht-proprietären HDR Static Metadata Block. Daraus schließe ich, das Windows die Dolby Vision Daten schlicht nicht verarbeitet.
 
Ray519 schrieb:
Warum kommst du als mit der Zertifizierung an. Ich rede von der Angabe der maximalen Helligkeit in den EDID Daten. Das ist wie du bestätigt hast, unabhängig von einer Zertifizierung von einer von mehreren möglichen Organisationen.

Wenn die Geräte von der VESA HDR Zertifiziert wurden haben sie zu 95 % auch die EDID Daten
die dann auch von Windows Automatisch erkannt werden und auch von CRU

Mein OLED TV hat keine VESA HDR Zertifizierung und wird auch nicht richtig von Windows bzgl
Helligkeitswerte erkannt und CRU zeigt auch keine Werte
.. Win erkennt dann erst die passenden Werte wenn ich sie Manuell bei
CRU eingeben habe oder wenn ich sie per Win 11 HDR Calibration App so eingestellt hab



Ray519 schrieb:
CRU kann nicht auf EDID Daten Zugreifen?

Hast du missverstanden

Ich sagte nicht das CRU generell nicht auf die EDID zugreifen kann

und ich sagte auch nicht das CRU nicht generell auf Helligkeitswerte der Geräte zugreifen kann

sondern das CRU eben bei zb meinem OLED TV der 800 Nits kann ( siehe Review ) ( aber auch nich auf manch andere ) nicht auf die Helligkeitswerte zugreifen kann und das anzeigt :


Screenshot 2025-04-19 224153.png




Statt das : ( die 128 hab ich selbst eingegeben damit Win die korrekten 800 Nits erkennt die mein OLED hat )


Screenshot 2025-04-19 224210.png




Und es gibt da drausen auch andere TVs und Monitore wo das so is
Da man das aber in Windows mit der Win 11 HDR Kalibration App regeln kann
bzw indem man bei CRU die passenden Werte einfach Manuell eingeben kann
is das so oder so kein Beinbruch da ja auch eh die meisten PC HDR Games garnicht
auf diese Werte zugreifen da die HDR Games eben eh selbst im Game Menu eine HDR Calibration haben
mehr dazu weiter unten.


Ray519 schrieb:
Auch irgendeine weitere Begründung das 1499 nits ein "Windows Standard" ist? Oder basiert das nur auf deinem einem TV?


Is Standart wenn Win nich auf die EDID zugreifen kann bzw sie nich vom Geräte bauer dort hinterlegt wurden
und wurde damals auch schon hier im Thread mehrmals besprochen

Wenn Windows auf die EDID Daten nicht zugreifen kann bzw sie nicht in der EDID hinterlegt wurden
nimmt Win automatisch die 1.499 Nits als Max Wert statt die eigentlichen Nits die das Gerät eigentlich
nur Max kann.

Wie gesagt das wurde schon oft hier im Thread besprochen .. ich bin seit Seite 6 hier im Thread dabei

Seite 5 hier im Thread :


Screenshot 2025-04-20 030246.png




https://www.computerbase.de/forum/threads/hdr-unter-windows-howto.2046426/page-5#post-26129927





Screenshot 2025-04-20 031217.png



Screenshot 2025-04-20 031410.png



https://www.techpowerup.com/forums/threads/hdr-peak-brightness.288568/


Ray519 schrieb:
Und ob Windows die vom Monitor angegebenen Grenzen nutzt oder nicht war genau meine Frage.

Windows selbst macht garnix .. Windows ist SDR und bleibt SDR auch wenn man in Win HDR anschaltet
also Windows selbst bleibt weil Windows eben SDR is und bleibt im Bereich der SDR Helligkeit
und reagiert daher auch auf den SDR Slider auf den nur SDR Material reagiert aber HDR Material davon unberührt bleibt


Screenshot 2025-04-20 041349.png




Die Frage ist somit eher ob HDR Games diese "Grenze" wie du es nennst nutzt oder nicht ?

Und die Antwort darauf sagte ich dir schon .. das machen nur ganz wenige HDR Games
die meisten HDR Games ignorieren diesen Wert.

Ich empfehle an dieser dir auch mal den Youtube Kanal "GamingTech" der macht Reviews zum HDR der Games
und sagt dann auch immer ob ein Game auf die Windows Daten zugreift oder eben nicht
und das tun halt nur wenige HDR Games aber die die es tun unterstützen dann auch HGIG

Da isses im grunde auch nich so schlimm wenn da in Windows ein falscher Wert steht
da nur eh wenige HDR Games auf diesen Wert zugreifen und man ja im Game Menu selbst
nochmal die Nits passent einstellen kann wie schon gezeigt.

Hier zb vom Game Menu vom Game Cyberpunk 2077 :

Screenshot 2025-04-20 034629.png




Hier der Youtube Kanel der das HDR der Games testet und testet ob das jeweilige Game
auf den WIndows Nit Wert zugreift oder nicht



Screenshot 2025-04-20 031458.png


Ray519 schrieb:
Denn diese zu ignorieren und dann willkürliche Werte anzunehmen wäre durchaus falsch.

Richtig .. aber das ist in etwa 90 % der HDR Games völlig egal und warum das so is schrieb ich ja eben




Ray519 schrieb:
Tone Mapping beinhaltet, wie man Farbwerte aus dem Quellmaterial zu einem limitiertem Display mappt.


Und Helligkeitswerte von Objekten auf dem Bild



Screenshot 2025-04-20 031832.png





Screenshot 2025-04-20 031849.png



Screenshot 2025-04-20 035325.png



https://www.reddit.com/r/OLED_Gaming/comments/syiy6u/an_easy_to_understand_guide_to_hdr_tonemapping/



Screenshot 2025-04-20 032122.png






Ray519 schrieb:
Wenn zB das Quellmaterial HDR10 mit bis zu 10000 nits maximal ausnutzt, dein Monitor aber nur 800 nits max. kann, dann muss man das auf die eine oder andere Weise machen. Das Ziel ist dabei, nicht hart zu clippen.

Jepp .. wie gesagt nicht nur Farbwerte sondern eben auch Helligkeit der einzelnen Objekte auf dem Bild



4.jpg




Stellt man im Game Menu das Nit Cap Falsch dann arbeitet auch das Tone Mapping mit Falschen
Helligkeits Min und Max Werten und es kommt zum Clipping



Ray519 schrieb:
Dafür gibt es zB HDR Metadaten, die die maximale Helligkeit und die durchschnittliche Helligkeit vom Bildmaterial angeben, so dass man diese Grenzen vom Tone Mapping anpassen kann.

Das stellt man wie gezeigt manuell im Game Menu bei der Kalibrierung ein

Filme haben ja ein vorgegebenen Wert da Filme gemastert werden aber Games werden nicht gemastert
und lassen sich eben im Game Menu manuell kalibrieren also man Masterd die HDR Games
im Game Menu bei der HDR Kalibrierung im Game Menu selbst !

Man kann zb im Game Menu einstellen das er nur 400 nits ausgeben soll oder halt 1.000 oder 794 Nits
usw. is ja bei Games alles Variable einstellbar das is bei HDR Filmen ja nicht der Fall

Da HDR Filme entweder mit 400 , 600 , 1.000 , 4.000 oder 10.000 Nits Gemastert werden
das is bei Games aber anders die werden nicht gemastert und man stellt die Nits die
der Content ausgeben soll Manuell im Game Menu ein da kann man eben zb auch
einstellen das er halt nur 538 Nits ausgeben soll oder 825 oder 3.174 Nis das is bei HDR Games
eben alles variable selbst einstellbar im Game Menu

Hab auch die Vermutung das du dich mit HDR Games so gut wie garnicht auskennst
sondern das eher alles aus HDR Film Perspektive siehst nur is das bei HDR Games eben anders
da man sie selbst Mastern kann Zuhause vorm Gerät


Hatte dir das ja vorhin alles schonmal gezeigt diese Einstellungsmöglichkeit haben ja HDR Filme nicht
aber eben Games :

Screenshot 2025-04-20 001738.png




Bei Diablo 4 konnte ich zb das Nit Cap auf bis zu 10.000 nits setzen wenn ich den wollte

Bei Battlefield 5 gehts auf bis zu 2.000 Nits rauf

Cyberpunk 2077 geht auf so 3.600 Nits - 4.000 Nits rauf wenn man es einstellt im Game Menu

Und man kann bei den Games halt selbst einstellen wo das Nit Cap is .... ich kann bei Diablo 4 im
Game Menu einstellen das er nur 400 Nits ausgeben soll oder eben rauf bis auf 10.000 nits
und auch alles dazuwischen aber man sollte das Nit Game im Game Menu natürlich
so einstellen das es zu den Max Nits des Monitors / TVs passt wieviel das sind
erfährt man ja im Review des jeweiligen TVs / Monitors


Das alles geht ja bei HDR Filmen nicht da gibts keine Einstellungsmöglichkeit das Nit Cap
selbst Manuell zu setzen aber bei HDR Games geht das wie du oben siehst schon.

Nur du siehst das halt eher alles aus HDR Film sicht aber übersiehst das man bei HDR Games
eben alles selbst einstellen kann


Ray519 schrieb:
Nur sind OLED Monitore da etwas mehr problematisch, weil die zB eher unter Flächenlimitierungen leiden (auf kleinen Flächen können sie sehr hell, aber weniger, je flächiger), genauso wie Zeitlimits.

Nich nur die Monitore sondern generell OLED und QD-OLED Panels konntest du ja auch schon
auf den Bildern der LG G5 OLED TV Werte sehen

Bei 10 % Window = 2591 Nits
bei 50 % Window = 801 Nits
bei 100 % Window = 405 Nits

Screenshot 2025-04-19 233952.png



Dagegen nochmal mein 2020er LG 48" CX OLED TV

10 % Window = 725 Nits
50 % Window = 242 Nits
100 % Window = 129 Nits

Screenshot 2025-04-19 224701.png




Ray519 schrieb:
Dynamic Tone Mapping ist ein Marketing Begriff der TVs, die HDR Metadaten aus dem Quellmaterial
Ray519 schrieb:
teilweise zu ignorieren und das selbst in die Hand zu nehmen.


Jup ... auch das sah man ja schon vorhin in den Bildern von dem Game The Last of Us
die ich nun aber nich extra nochmal hier rein packe die kannst du ja in meinem alten Post sehen


Ich nutze bei meinem 2020er LG 48" CX OLED TV den ich als PC Monitor nutze immer DTM On
aus genannten und gezeigten Gründen.


Ray519 schrieb:
Deshalb gehört Tone Mapping ja so grundsätzlich zu HDR dazu. Und mit korrektem Tone Mapping kann man auch mit einem Display mit maximal 400 nits noch was aus HDR gewinnen.

ne du .. mit 400 Nits reisst man nix

Ich hatte im Februar 2020 ein HDR 1000 LCD der hat gerockt was HDR Helligkeit anging
den konnte man im Monitor Menu auch auf HDR 600 und HDR 400 drosseln
und 400 haut keine Kug vom Eis und 600 auch nich .. also so seh ich das halt

Ab 1000 fängt HDR an spass zu machen alles darunter is eher schnupper Kurs
daher bin ich vom meinem 800 Nit 48" CX OLED TV auch so entäuscht
was natürlich auch mit dem Agressivem ABL Dimming zusammenhängt
aber 2027 wird sich das ändern wenn ich auf den 42" / 48" LG G7 wechsel

Ray519 schrieb:
Die Frage war danach, was die Standards für HDR in EDID sagen, gilt, wenn der Monitor keine Angaben zu maximaler Helligkeit macht. Ich weiß es nicht.

Wie gesagt und gezeigt geht Windows dann von 1.499 Nits aus was eben der Default Wert ist
den Windows dann von sich aus hernimmt wen Win nich auf die in der EDID Hinterlegten
Helligkeitswerte zugreifen kann oder sie dort nicht vom Geräte bauer hinterlegt wurden.

Aber wie auch schon mehrmals gesagt betrifft das nur ein paar HDR Games die meisten ignorieren die
Win angabe wie gesagt ... auch kann man ja wie auch schon mehrmals gesagt die angabe
auch Manuell im Game Menu machen das hatte ich dir ja nun schon oft genug in Bildform
von einzelnen HDR Games gezeigt.

Screenshot 2025-04-20 034629.png




Und wenn man auf Nummer sicher gehen möchte wenn Win die Falschen Werte hat
dann stellt man sich mit hilfe von CRU oder der Win 11 HDR Kalibration App eben
die Passenden Nits selber ein


Gebe ich bei CRU zb 255 ein erkennt Windows 12.527 Nits

Screenshot 2025-04-20 040438.png




Und bei 128 sinds die für mein 2020er LG 48" CX OLED TV die passenden 800 Nits :

Screenshot 2025-04-20 040607.png
 
Zuletzt bearbeitet:
Stagefire schrieb:
Wenn die Geräte von der VESA HDR Zertifiziert wurden haben sie zu 95 % auch die EDID Daten
Und was hälst du von der Idee, das die Vesa Zertifizierung das vllt verlangt und Geräte herausfiltert die an dieser Stelle aus Faulheit sparen?

Was Windows erkennt und damit machen kann hat dann immer noch nichts mit der Zertifizierung zu tun.
Stagefire schrieb:
Mein OLED TV hat keine VESA HDR Zertifizierung und wird auch nicht richtig von Windows bzgl
Helligkeitswerte erkannt und CRU zeigt auch keine Werte
Warum kannst du dich nur im Kreis drehen. In den EDID Daten steht nichts -> Windows erkennt auch nichts. Klingt nicht überraschend. Wieso versuchst du da immer Zertifizierungen mit reinzumischen ohne dann aber irgendeine logische Verknüfung zeigen zu können. Außer, dass zertifizierte Monitore oft diese Angabe machen und dann erkennt Windows die auch. Das bestätigt doch nur, dass Windows die HDR Static Metadata Infos verarbeiten kann.
Stagefire schrieb:
und ich sagte auch nicht das CRU nicht generell auf Helligkeitswerte der Geräte zugreifen kann
Dann musst du dich auch mal informieren wie EDID funktioniert. Hat keinen Sinn sich etwas zusammen zu fantasieren, wenn man auch einfach mal nachlesen kann wie das geht.

Und da hilft es auch nicht die selben Screenshots noch 3 mal zu spammen, wenn du auf keine Punkte eingehen willst.
Stagefire schrieb:
Wenn Windows auf die EDID Daten nicht zugreifen kann bzw sie nicht in der EDID hinterlegt wurden
nimmt Win automatisch die 1.499 Nits als Max Wert
Zur Klarstellung um das mal geordnet zu bekommen: Windows sagt in den Einstellungen dann "Peak brightness: Unknown". Zumindest für aktuelle Versionen und bei meinem Monitor ohne Peak Angabe.

Und Apps wie die DisplayHDR CTS App und Spiele zeigen dann stattdessen 1499 an. Und das dieser Default von Windows gesetzt wird wissen wir nur weil die DisplayHDR App das als "Windows-supplied default" bezeichnet?

Das wäre die zentralere Info gewesen anstatt die selben Screenshots von deinem TV nochmal zu spammen.

Bleibt noch übrig, ob der Standard für die EDID Daten oder ein HDR Standard diese Zahl hergibt oder ob Microsoft die sich gewürfelt hat.
Stagefire schrieb:
Windows selbst macht garnix .. Windows ist SDR und bleibt SDR auch wenn man in Win HDR anschaltet
Immer diese falschen Verallgemeinerungen: der Windows DESKTOP und die meisten Anwendungen bieten nur SDR Ausgabe. Aber manche Windows Apps können HDR. Auch ohne Vollbild. So zB der Bildschirm wo man die SDR Helligkeit in Windows konfigurieren kann. Auch ist die Transformation von SDR Ausgabe in den HDR Farbraum für den Monitor etwas das Windows macht.
Außerdem hat die Diskussion doch gerade mit dem "Default" Wert von Windows wenn schlechte Monitore gar keine Angabe machen angefangen. Da hat es doch wohl auch noch deiner Meinung eine Auswirkung. Also warum jetzt hier das Thema so unnütz wechseln.
Stagefire schrieb:
Und Helligkeitswerte von Objekten auf dem Bild
Arbeiten deine Displays nicht mit Pixeln? Was sollen die "Objekte" da. Das Tone Mapping ist auf den Farbwerten der einzelnen Pixel. Und das beinhaltet auich die Helligkeit von der wir hier sprechen. Ich meinte Mit "Farbwert" alles, wie zB das RGB Tupel und nicht nur Chroma.

Aber das wird mir alles entschieden zu blöd. Angefangen hat das ganze, weil du gesagt hast, die Grenzwerte gibt es nur bei Zertifizierung. Und ich habe erklärt und gezeigt, dass das nicht stimmt. Da mag es Korrelation geben, aber es muss einfach in den EDID Infos drin stehen.
Dann erzählst du von vielem Anderem. Wiederholst irgendwo dieselbe falsche Info nochmal, erzählst mir das Tone Mapping nichts mit der Peak Brightness zu tun hat nur um dir dann im nächsten Post selbst zu widersprechen und noch mehr Screenshots von HDR Menüs in Spielen zu Spammen zu denen es gar keine Diskussion gab...

Du musst mal daran arbeiten, auf anderer Leutes' Anworten einzugehen und deine eigenen Begriffe auch über mehrere Absätze und Posts konsistent zu verwenden. Sonst kann man zu keinem Ergebnis kommen.
 
Ray519 schrieb:
Und was hälst du von der Idee, das die Vesa Zertifizierung das vllt verlangt

Möglich wäre jedenfalls eine Erklärung warum Geräte die von VESA bzgl HDR getestet wurden
zu 95 % die Helligkeitswerte auch in der EDID hinterlegt haben und somit Windows weiss wieviel
nits das Gerät kann auch wenn das in 90 % der Fälle eh total egal is ob Win die Nits korrekt erkennt oder nich
da eben 90 % der HDR Games eh nicht darauf zugreifen.

Ray519 schrieb:
Was Windows erkennt und damit machen kann hat dann immer noch nichts mit der Zertifizierung zu tun.

Doch da eben zertifzierte Geräte eben meist die Daten in der EDID hinterlegt haben
während nicht Zertifizierte Geräte sie eben meist nicht haben wie zb alle TVs.



Ray519 schrieb:
Warum kannst du dich nur im Kreis drehen. In den EDID Daten steht nichts -> Windows erkennt auch nichts. Klingt nicht überraschend. Wieso versuchst du da immer Zertifizierungen mit reinzumischen

Sagte ich bereits mehrmals auch in meinen Posts zuvor.

Ray519 schrieb:
ohne dann aber irgendeine logische Verknüfung zeigen zu können. Außer, dass zertifizierte Monitore oft diese Angabe machen und dann erkennt Windows die auch. Das bestätigt doch nur, dass Windows die HDR Static Metadata Infos verarbeiten kann.

WIndows selbst kann keine HDR Static Metadaten verarbeiten .. Windows selbst ist und bleibt SDR Material
und kann nur mit SDR umgehen !!


Mehr dazu hier :

Screenshot 2025-04-20 130118.png




Screenshot 2025-04-20 130434.png



Screenshot 2025-04-20 130239.png




https://tftcentral.co.uk/articles/h...e-on-your-pc-when-you-are-viewing-hdr-content


Auch nochmal von TFTCentral in Video Form :





Wenn dann können eben nur HDR Games und HDR Filme mit Static Metadaten umgehen aber nicht Windows
selbst da Windows selbst immer SDR währendessen dabei bleibt !!!





Ray519 schrieb:
Und da hilft es auch nicht die selben Screenshots noch 3 mal zu spammen, wenn du auf keine Punkte eingehen willst.

Vielleicht solltest du mal überlegen warum ich diese Screenshots da rein packe und verstehen
was diese Screenshots beinhalten und verstehen was das gezeigte da in den Games macht

Ray519 schrieb:
Zur Klarstellung um das mal geordnet zu bekommen: Windows sagt in den Einstellungen dann "Peak brightness: Unknown". Zumindest für aktuelle Versionen und bei meinem Monitor ohne Peak Angabe.
Und Apps wie die DisplayHDR CTS App und Spiele zeigen dann stattdessen 1499 an.

Und damals bis vor 1 Jahr zeigte auch Windows dann eben 1.499 Nits an also nahm den Default Wert
wie ich dir bereits zeigte in Form von 2 Screenshots

Auch brauchst du dir nurmal diesen Thread hier genauer anschauen dann wüsstest du das auch !!


Ray519 schrieb:
Und das dieser Default von Windows gesetzt wird wissen wir nur weil die DisplayHDR App das als "Windows-supplied default" bezeichnet?

Nein weil das bis vor 1 Jahr auch so ohne DisplayHDR APP in Windows so war
was du eben schon in 2 Screenshots sehen konntest ... nochmal schau dir die Screenshots an
verstehe was da gezeigt wird dann weisst du auch mehr als jetzt und hättest diese Frage erst garnicht
gestellt den sonst wäre es in diesen Fällen dann nich immer die 1.499 Nits sondern auch mal andere
Nit Werte !

Dieser Nit Wert ist halt in Windows hinterlegt und Windows nimmt sich diesen Default Wert
wenn Geräte keine Helligkeitswerte in der EDID hinterlegt haben

Ray519 schrieb:
Bleibt noch übrig, ob der Standard für die EDID Daten oder ein HDR Standard diese Zahl hergibt oder ob Microsoft die sich gewürfelt hat.

Wie diese 1.499 Nits zustande kommen weiss ich auch nicht aber dieser Wert muss in Windows
hinterlegt sein da wird nix gewürfelt.

Wenn es dich so interessiert dann kannst du ja danach Googlen.

Ray519 schrieb:
Immer diese falschen Verallgemeinerungen: der Windows DESKTOP und die meisten Anwendungen bieten nur SDR Ausgabe.

korrekt

Ray519 schrieb:
Aber manche Windows Apps können HDR. Auch ohne Vollbild.

Welche den zb ?

Mir fällt spontan nur die WIndows Foto Anzeige ein und die Win 11 HDR Calibration App
sowie halt HDR Fähige Browser aber da brauch man dann natürlich auch HDR Webseiten Content für
eben zb ein HDR Youtube Video.

Aberr ansonsten wirds dann auch schon arg mau mit der Ausbeute

Windows Explorer ist SDR
Desktop is SDR
Systemsteuerung is SDR
RegEdit is SDR
Anzeigeneinstellung is SDR
Anpassen is SDR
Die Steam Oberfläche is SDR
Die AquaComputer Software Oberfläche is SDR
MSI Afterburner is SDR
Taskleisten EInstellung is SDR
Die Taskleiste is SDR
Der Mauszeiger is SDR
Diese Webseite is SDR
Die Nvidia System Steuerung ist SDR
Die Nvidia App is SDR
Die Win 11 Game Bar is SDR
Die Desktop Icons sind SDR
CRU ist SDR

usw


Wie gesagt Windows selbst ist und bleibt SDR das konntest du ja nun auch bei dem TFTCentral Artikel
sowie dem TFTCentral Video entnehmen.

Ray519 schrieb:
So zB der Bildschirm wo man die SDR Helligkeit in Windows konfigurieren kann.

Stimmt da ist ja das eine rechte Test Bild in HDR der rest bleibt aber SDR und reagiert eben auf diesen Slider
was eben nur SDR Material tut


Screenshot 2025-04-20 131313.png



Und mit eben jenen SDR Slider sieht man auch das Windows selbst eben SDR is da Windows auf den
SDR Slider reagiert auf den halt nur SDR Material reagiert aber HDR Material von dem unberührt bleibt

Ray519 schrieb:
Auch ist die Transformation von SDR Ausgabe in den HDR Farbraum für den Monitor etwas das Windows macht.

Das macht die Win Auto HDR Ai von Windows aber halt auch nur bei Games .. Windows selbst bleibt weiterhin SDR dabei nur das Game wird dann in "HDR" dargestellt aber eben nicht WIndows selbst

und mit Nvidias RTX HDR kann man mit hilfe von Ai auch SDR Videos und SDR Games in "HDR" umwandeln
aber auch da bleibt eben Windows selbst weiterhin SDR und nur das Video oder Game wird dann in "HDR"
dargestellt aber Windows selbst bleibt dabei SDR

Und mit der SpecialK Reshade MOD kann man auch SDR Games in "HDR" Games umwandeln
aber Windows selbst bleibt auch dabei .. du ahnst es ... weiterhin SDR



Aber um nun nochmal zum Ursprung unserer Diskussion zu kommen ... in 90 % der Fälle isses
vollkommen egal ob Windows da nun 1.499 Nits oder 100 Nits oder 843 Nits oder sonst was stehen hat
da eben nur etwa 10 % der HDR Games auf diese Daten zugreifen die anderen 90 % nehmen eben
die Helligkeitswerte die man im Game Menu des jeweiligen Games einstellt. Und jene 10 %
der HDR Games nutzen dann auch HGIG wärend es die anderen 90 % nicht tun
das alles erfährt man wenn man sich die HDR Game Reviews von GamingTech zu gemühte führt.

Und man kann eben auch mit einem TV oder Monitor ein absolut super HDR Erlebniss haben auch wenn
der eben keine Helligkeitswerte in der EDID hinterlegt hat und auch nicht von VESA eine HDR Zertifizierung
erhalten hat da man eben die Nits im Game Menu passend zum Anzeigegerät einstellen kann

Ein Problem ist es nur wenn man ein HDR Game hat wo man die Nits nicht im Game Menu einstellen kann
zb bei Metro Exodus ... wenn man da nun die Falschen Helligkeitswerte in Windows hat und es ein Game is das darauf zugreift dann kommt es zum Clipping

Aber zum Glück gibts es nur sehr wenige HDR Games auf dem PC wo man die Nits nicht im Game Menu Einstellen kann von daher is das nun aufs Gesamte gesehen auch nich alzu schlimm


Ansonsten betrifft es halt noch SDR Games die man mithilfe von Ai in "HDR" Games umwandeln will
also mit RTX HDR oder Auto HDR

Aber das ist ja wie gezeigt auch alles Manuell sehr leicht Fixbar indem man entweder bei CRU oder bei
der Win 11 HDR Calibration App die korrekten Nits angibt die das Gerät max kann und dann zeigt
auch Windows die korrekten Nits an und alles funktioniert dann wie es soll.

Also wie mans auch dreht und wendet is das alles eigenlicht garkein großes Thema
und jenes Thema wurde ja schon seit Seite 1 hier im Thread angegangen also alles ein alter Hut
 
Zuletzt bearbeitet:
Mein x-ter Versuch mit HDR auf meinem DELL G3223Q ist wieder abgebrochen. Diesmal schien ich zwar endlich eine Kalibrierung/Einstellung gefunden zu haben, die nicht in völlig verwaschenen SD Inhalten resultierte, aber iwie gefällt es nun meinem Rechner aus anderen Gründen wohl nicht mehr (ggf. der nVIDIA Treiber), denn bei hellen Webseiten ist nun klar ein Flackern zu sehen und auch sonst schaltet der Monitor gelegentlich einfach ab für 1 Sekunde oder so. Also zum x-ten mal wieder HDR Experiment abgebrochen.

Nicht tragisch, hab den Monitor ja auch nicht für HDR gekauft, aber schon nicht feierlich, wie viel Aufwand man auf Userseite betreiben muss, um vernünftige HDR Einstellungen zu haben. Hoffe, das ist mit einem OLED Screen einfacher...
 
AnkH schrieb:
wie viel Aufwand man auf Userseite betreiben muss, um vernünftige HDR Einstellungen zu haben
Wie gesagt, das ist weniger ein Einstellungsproblem, als ein Monitorproblem. Wenn die Monitore machen, was sie sollen und nicht eine grottige HDR Implementierung bieten, hat SDR von Windows in HDR gemappt nicht anders aus zu sehen (nur die Helligkeit kann anders sein, weil die nun von Windows entschieden wird).

Mein ältester Dell Ultrasharp taug dafür auch nichts. In HDR stellt er Farben halt offensichtilich völlig falsch dar mit Clipping und allem. Der Nachfolger kriegt das mit der gleichen Zertifizierung hin. Zeigt einmal wie wertlos manche Zertifikate und Marketing sind. Windows mag auch limitiert sein. Aber wenn SDR Ausgabe im HDR Modus schon kaputt ist, ist das der Monitor und das ist meist so kaputt, das keine Nutzereinstellungen da etwas retten können.
 
  • Gefällt mir
Reaktionen: AnkH
AnkH schrieb:
Mein x-ter Versuch mit HDR auf meinem DELL G3223Q ist wieder abgebrochen. Diesmal schien ich zwar endlich eine Kalibrierung/Einstellung gefunden zu haben, die nicht in völlig verwaschenen SD Inhalten resultierte, aber iwie gefällt es nun meinem Rechner aus anderen Gründen wohl nicht mehr (ggf. der nVIDIA Treiber), denn bei hellen Webseiten ist nun klar ein Flackern zu sehen und auch sonst schaltet der Monitor gelegentlich einfach ab für 1 Sekunde oder so. Also zum x-ten mal wieder HDR Experiment abgebrochen.

Nicht tragisch, hab den Monitor ja auch nicht für HDR gekauft, aber schon nicht feierlich, wie viel Aufwand man auf Userseite betreiben muss, um vernünftige HDR Einstellungen zu haben. Hoffe, das ist mit einem OLED Screen einfacher...

Ray519 schrieb:
Wie gesagt, das ist weniger ein Einstellungsproblem, als ein Monitorproblem. Wenn die Monitore machen, was sie sollen und nicht eine grottige HDR Implementierung bieten, hat SDR von Windows in HDR gemappt nicht anders aus zu sehen (nur die Helligkeit kann anders sein, weil die nun von Windows entschieden wird).
Er sprach aber nicht mehr von windows' SDR Darstellung innerhalb des hdr Modus, sondern nativer hdr Wiedergabe.
Und windows SDR Konvertierung entspricht eben nicht nativer sdr Wiedergabe, weil von sRGB Gamma ausgegangen wird.

Auf meinem notebook oled display erscheinen gewisse Hauttöne in dunklen Bereichen schon sehr grünlich, eine Kalibrierung ermöglicht win11 ja nicht.

Nativ HDR:
20250420_230019.jpg

20250420_225848.jpg



Die Fotos verfälschen natürlich die tatsächliche darstellung, aber die Grünverfärbung ist ersightlich und real noch stärker ausgeprägt.
Muss ich mal auf meinem Panasonic oled gegenprüfen, sobald die oled tvs wieder aufgebaut sind

Dass in win11 die untersten hdr Graustufen schlicht nicht abgebildet werden und microsoft seit Jahren den Fehler nicht behebt, zeigt auch microsoft's Interesse an HDR.
Ich erwarte da nichts mehr
 
Zuletzt bearbeitet:
AnkH schrieb:
wie viel Aufwand man auf Userseite betreiben muss, um vernünftige HDR Einstellungen zu haben. Hoffe, das ist mit einem OLED Screen einfacher...

Is generell sehr einfach

1. ein guten akkuraten HDR Monitor / TV mit akkutater EOTF Kurve und guten Helligkeitswerten
ob das Gerät akkurat bei der HDR Wiedergabe ist findet man in Reviews raus

2. ein Natives HDR Game mit vernünftiger HDR Implimentierung vom Game Entwickler
ob das Game eine gute HDR Implimentierung hat findet man in Reviews raus

3. eigenes verständniss wie man das HDR im Game Menu kalibrieren muss
zur not kann man sich hilfe von Game Reviews holen was da welcher Regler bei
der HDR Kalibrierung im Game Menu macht

tjoa und das wars eigentlich auch schon .. is ne easy Nummer
Ergänzung ()

Ray519 schrieb:
Aber wenn SDR Ausgabe im HDR Modus schon kaputt ist

Da is schon der Denkfehler

SDR Content = SDR Mode
HDR Content = HDR Mode

hatte da ja erst vor kurzem hier im Thread drüber berichtet vor eine Handvoll Posts



Screenshot 2025-04-23 165125.png



Screenshot 2025-04-20 130434.png



Screenshot 2025-04-23 165022.png



https://tftcentral.co.uk/articles/h...e-on-your-pc-when-you-are-viewing-hdr-content
 
Zuletzt bearbeitet:
Stagefire schrieb:
Da is schon der Denkfehler

SDR Content = SDR Mode
HDR Content = HDR Mode

Wenn du schon nicht mal mehr wiedergeben kannst, was die Vor- und Nachteile davon sind, dann ist deine Meinung dazu vermutlich nicht gut.

Denn das ist kein Denkfehler.

Was ihr mit Gamma wollt. Wenn man einen Wohldefinierten Farbraum hat, wie sRGB, dann ist da definiert, welcher Farbwert wie auszusehen hat. Und Rec. 2020 ist inklusive von sRGB. Man kann also mathematisch perfekt das ganze umrechnen.

Die Nachteile wären: wir sind es gewohnt, dass der Monitor dran herum manipuliert. ZB mit einem Helligkeitsregler vom Monitor. Und man muss halt für die Umrechnung so eine Gewünschte Helligkeitseinstellung auf dem PC wissen, genau wie die Farbräume vom Input und Output und zwar exakt. Wenn sich alle an das halten, was sie sollten, geht das auch gut. Wie akkurate HDR Monitore zeigen können.

Und wenn der Monitor entsprechend gutes Tone Mapping kann, dann wird das Bild auch nicht schlechter als im SDR Modus, weil der umgerechnete SDR Inhalt vom Monitor nicht mehr an Kontrast zB abverlangt als vorher.
Wenn ein Monitor natürlich HDR nicht ansaztzweise korrekt behandelt und nur versucht maximale Helligkeit oder so herauszuholen, dann ist der Fehler den man mit Umrechnungen, die das nicht wissen, rein holt halt enorm. Deshalb sage ich ja: das Problem ist der Monitor. HDR ständig ein und ausschalten zu müssen ist ein Hack um einen schlechten Monitor herum.
Am Desktop hat man aber auch gerne Fenster. Wo vieles SDR ist und auch so geliefert wird, aber halt ein Ausschnitt HDR nutzen soll. Das Hacky an- und Ausschalten von HDR geht nur für Vollbild Wiedergabe.

Deshalb kommt das ja aus der HDMI / HiFi Welt auch so, wo schlechte Darstellung weniger auffällt, weil eben nicht SDR und HDR gemischt wird.

Suspektan schrieb:
Er sprach aber nicht mehr von windows' SDR Darstellung innerhalb des hdr Modus,
???
AnkH schrieb:
Diesmal schien ich zwar endlich eine Kalibrierung/Einstellung gefunden zu haben, die nicht in völlig verwaschenen SD Inhalten resultierte,
Wie lest ihr denn diese Stelle? Wenn der Monitor seinen Job macht, ist das hier nicht notwendig. Und vermutlich muss man alles hierfür so verstellen, dass HDR dann nur noch schlechter wird.
 
Zuletzt bearbeitet:
Ray519 schrieb:
Wie lest ihr denn diese Stelle? Wenn der Monitor seinen Job macht, ist das hier nicht notwendig. Und vermutlich muss man alles hierfür so verstellen, dass HDR dann nur noch schlechter wird.
Mir ist mittlerweile bewusst, dass man nicht versuchen sollte, SDR Inhalte mit HDR on widerzugeben. Aber das ewige Umschalten nervt, daher würde ich halt gerne HDR dauerhaft an lassen...
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Ray519 schrieb:
Wenn du schon nicht mal mehr wiedergeben kannst, was die Vor- und Nachteile davon sind, dann ist deine Meinung dazu vermutlich nicht gut.

Ja so muss das dann wohl sein ... und TFTCentral dann wohl auch nich.

Denke den Rest von deinem Text brauch ich mir dann auch garnich mehr durchlesen hat kein Sinn denk ich
da nun mit dir nun weiter zu diskutieren wenn man sowas zu lesen bekommt.

AnkH schrieb:
Mir ist mittlerweile bewusst, dass man nicht versuchen sollte, SDR Inhalte mit HDR on widerzugeben. Aber das ewige Umschalten nervt, daher würde ich halt gerne HDR dauerhaft an lassen...


Is doch easy machbar innerhalb von 1 sekunde hiermit :



Screenshot 2025-04-23 180929.png



Screenshot 2025-04-23 181910.png






Und für die die auch dafür zu Faul sind :


https://github.com/Codectory/AutoActions
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slipknot79
@AnkH
Nein mein Punkt war, dass das genau so zu gehen hat, wenn die Monitore es nicht vergeigen. Von 5 Monitoren mit HDR kriegen es die neueren 3 ja auch hin. SDR Inhalte im HDR Modus sehen 1:1 so aus wie erwartet.

Wenn man halt sowas will wie die automatische Helligkeitsregelung von modernen Monitoren (nach Umgebungshelligkeit), geht das halt oft noch nicht wenn der Monitor im HDR Modus ist. Aber das ging halt auch nur so einfach für die Hersteller, wenn der PC gar nicht ausnutzen kann, was der Bildschirm in Hardware kann.
 
Ray519 schrieb:
Was ihr mit Gamma wollt. Wenn man einen Wohldefinierten Farbraum hat, wie sRGB, dann ist da definiert, welcher Farbwert wie auszusehen hat. Und Rec. 2020 ist inklusive von sRGB. Man kann also mathematisch perfekt das ganze umrechnen.
Farbraum ist nicht gamma, nur weil Spiele vielleicht den sRGB Farbraum verwenden, nutzen sie nicht unbedingt auch das sRGB Gamma.
Und auch wenn der sRGB Farbraum zum von SDR Filmen verwendeten rec709 Farbraum nahezu identisch ist, nutzen Filme nun mal kein sRGB gamma, sondern eher 2.4 / bt.1886.

In meinem Fall waren die Schattendetails bei Wiedergabe von sdr Inhalten im win11 HDR Modus deutlich aufgehellt im Vergleich zur nativen sdr Wiedergabe.(nein, eine Helligkeitseinstellung behebt das Problem nicht)
Ist mir mittlerweile auch egal, ich verzichte auf windows' unpassende Komvertierung und schalte manuell um.

lediglich mit mpc-hc und seinem internen Renderer kann ich tatsächlich SDR/ HDR automatisch initiieren, allerdings vermasselt win11 seit dem letzten Update die sdr -Farbprofilzuweisung und setzt von sich aus erstmal auf den vorgegebenen Systemstandard zurück.

Sowohl der edge- als auch Bravebrowser führen übrigens ihr eigenes Tonemapping mit hdr-youtube Videos durch und dunkeln das Bild insgst. ab, und nicht etwa nur Peakhelligkeiten.
20250415_181311.jpg


Ob sich dafür an den in windows hinterlegten Daten zur HDR Helligkeit orientiert wird, habe ich nicht getestet, aber letztlich können Anwendungen über das Tonemapping bestimmen und auch darüber, ob überhaupt die st.2086 Metadaten korrekt übertragen werden.
Tut ein Player das z.B. nicht (energy media player, hust), kann ein unerwünschter Fallback auf 4000 nits MDL (lg tvs) oder gar 10.000 nits Tonemapping (samsung tvs) die Folge sein.
Auch die PS5 gibt im Gegensatz zur xbox beispielsweise NIE st.2086 metadaten aus, auch nicht bei UHD Filmwiedergabe.
Ich kann die gesendeten Metadaten mit einem zwischengeschalteten hdfury Device auslesen
 
Zuletzt bearbeitet:
Ich bin mittlerweile 24/7 im HDR Modus unterwegs..
Mich stört das Problem mit dem scRGB Gamma zwar immer noch und ich würde mir wünschen das Microsoft endlich zu einem Purepower Gamma 2.2 oder 2.4 wechseln würde.

Aber
Filme, YouTube ect sind dank RTX-HDR da kein Problem mehr da Nvidia auch eine Gamma Umwandlung bei dem KI-video HDR durchführt.

In Spielen ist es hit und miss... Manche haben sehr gutes HDR mit eigenem Gamma .
Bei anderen geht die HDR funktion ebenfalls über das Gamma des Betriebssystems.
Oder bieten leider trotz neuster engine gar kein HDR an.

In beiden Fällen Knall ich ebenfalls einfach RTX-HDR drüber., (global per Nvidia profile Inspektor)


Den leichten Rotstich meines MSI oleds hab ich mit dem Tool Colorcontrol weg bekommen indem ich n costum ICC Profil erzeugt habe und dabei den Whitepoint leicht angepasst habe für eine andere.. kältere Farbtemperatur..


Muss ehrlich sagen.. mit ner AMD Karte ohne RTX KI-HDR ...was nicht perfekt.. aber wesentlich besser als Windows Auto HDR und so manche "native HDR integration" ist..
Hätte ich auch kein Spaß an HDR mit dem OLED an einem Windows Rechner.


Screenshot 2025-04-23 200609.png
Screenshot 2025-04-23 200609.png

alternativ kann man natürlich noch mit colorcontroll auf ICC basis ein SDR Gamma transfer auf Purepower basis simulieren..
je nach monitor hat man dann halt leichte probleme mit dem EoTF tracking da das ganze dann leider nur simuliert ist..
und man in Nativen HDR inhalten dann leider einen gewissen Blackcrush hat...
ausser man tunet dann an shadow boost details rum..
Screenshot 2025-04-23 201200.png


mit Purepower + Shadow Details 20% kann ich auf den HDR testvideos
alle Schwarzen zonen bis runter 0.5% klar optisch unterscheiden.

und auch white Clipping sieht gut aus

wie genau das EOTF tracking allerdings noch ist kann ich leider nicht sagen dafür fehlt mir das Mess equipment


auch benutzte ich nicht mehr das Windows HDR tool da es mir zu blöd ist.. sondern benutzt ebenfalls direkt das von Colorcontrol
Screenshot 2025-04-23 202109.png


und schreib mir das alles einfach direkt als ICC monitor profil.. Speicher das ab und gut ist
 
Zuletzt bearbeitet:
Zurück
Oben