HDR unter Windows, Howto

Slipknot79 schrieb:
Wieso ist eigentlich Divinity 2 in HDR am PC grau ausgewaschen?

Es gibt Titel die sind lieblos in HDR umgewandelt worden.

Beispiel :

Cyberpunk
Red Dead 2
Diablo 2 Remastered

wahrscheinlich gehört Divinity 2 wohl dann auch dazu ... bei meinem Test damals sah das HDR dort allerdings zumindest ok aus. Ich hab das Game aber nun nicht mehr.
 
In Divinity 2 beklagen sich einige darüber, dass HDR broken ist. https://steamcommunity.com/app/435150/discussions/0/1737715419895128058/?ctp=3

Cyberpunk sieht bei mir ungeregelt auch greyish und nicht lebhaft aus, aber kann man mit den ingame Reglern gut hinbiegen, wenn auch nicht sehr gut. Notfalls can man auch Freestyle checken. Ist aber dennoch störend wenn es nicht "professionell" umgesetzt wird und man selbst regeln muss ohne zu wissen ob es technisch "richtig" ist.

Die anderen beiden Games habe ich (noch) nicht.
 
Slipknot79 schrieb:
Die anderen beiden Games habe ich (noch) nicht.

Red Dead 2 war immer das Parade Negativ Beispiel für Schlecht umgesetztes HDR und man sollte es lieber in SDR Zocken .... da siehst du warum :


Und das selbe is auch bei Cyberpunk gemacht worden


https://www.eurogamer.net/articles/digitalfoundry-2018-whats-up-with-red-dead-redemption-2s-hdr

Beide Games sind einfach von SDR auf HDR Hochskalliert worden statt mit richtigem
HDR ausgestattet. Das is wie damals die Computer Konvertierten 3D Filme die auch einen schlechteren
3D Effekt hatten als die die mit richtigen 3D Kameras gedreht wurden.

Das passiert halt immer wenn die Entwickler kein Bock haben sich vernünftig mit HDR
zu beschäftigen dann bekommt man als Nutzer sone Fake HDR Grütze serviert.

Ein gutes Positiv Beispiel is wie du schon sagst aber Horizon Zero Dawn gewesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slipknot79
@Stagefire Ich glaube, meine PPS kamen zu spät, daher hier noch einmal:

Hier noch ein Artikel, der meine Einschätzung zum Tone-Mapping untermauert:
https://www.whathifi.com/advice/hgig-explained-what-is-hgig-how-do-you-get-it-and-should-you-use-it

Zitate:
Switching Dynamic Tone Mapping on will tell the TV to analyse constantly the picture and boost it as it sees fit. Typically, it results in a really bright and punchy picture, but it also tends to flatten and blur bright elements, over-exposing them and removing detail. The black level tends to be lifted, too, which can reveal more detail but often also washes out the image.

Switching Dynamic Tone Mapping off disables only this on-the-fly element of the processing. The TV is still tone mapping the already tone-mapped image, but it's doing so in a fixed manner.

Switch Dynamic Tone Mapping to HGiG, though, and the TV essentially stops doing its own tone mapping. Instead, the image will be output based on the parameters set in the console's HDR calibration process.

Was die SDR-Helligkeit angeht, bin ich nun auch der Ansicht, dass man die etwas reduzieren kann. Ich finde zumindest, dass Auto-HDR besser aussieht mit einem niedrigeren Wert. Wenn ich den Wert auf 40 lasse, also die gleiche HDR-SDR-Helligkeit habe wie im SDR-Modus mit OLED-Helligkeit 100, dann sehen die Spiele (ähnlich wie beim dynamischen Tone-Mapping) im Mittelbereich einfach zu hell aus und das Bild wirkt ausgewaschener. Die HDR-Highlights kommen deutlich besser rüber mit niedrigerer SDR-Helligkeit. Ich hab den Wert jetzt auf 20 gestellt. Zu weit möchte ich auch nicht runter gehen, weil es dann zu dunkel wird, vor allem bei SDR-Videos. Da ist von Weiß ja sonst nicht mehr wirklich die Rede, sondern eher von einem Grau.

Um das mal alles zusammenzufassen: Ich habe jetzt eigentlich nur die Nits mittels CRU auf 750 gestellt "für Windows" und den SDR-Content-Slider von 40 auf 20 gestellt, um SDR auf die Hälfte abzudunkeln. Und ansonsten verwende ich HGiG mit dazu passender Kalibrierung.

Ich werde vielleicht nochmal genauer testen, ob die EDID-Werte wirklich das Auto-HDR beeinflussen. Eigentlich müssten ja die Highlights schwächer werden, wenn ich z.B. die Nit-Obergrenze von 750 auf 400 senke. Sollte ich da keinen Effekt feststellen, würde das bedeuten, dass die Werte nicht verwendet werden für Auto-HDR. Dann hätte ich Gewissheit.
 
VaniKa schrieb:
Switching Dynamic Tone Mapping on will tell the TV to analyse constantly the picture and boost it as it sees fit. Typically, it results in a really bright and punchy picture, but it also tends to flatten and blur bright elements, over-exposing them and removing detail. The black level tends to be lifted, too, which can reveal more detail but often also washes out the image.

Also so in etwa das was ich auch immer geschrieben hatte nur etwas ausführlicher.

"it results in a really bright and punchy picture" .. genau daher nehm ich das meistens auch.


VaniKa schrieb:
Switching Dynamic Tone Mapping off disables only this on-the-fly element of the processing. The TV is still tone mapping the already tone-mapped image, but it's doing so in a fixed manner.

Joa auch das passt ungefähr zu dem was ich geschrieben hatte ... dass das normale Tone Mapping genutzt wird.

VaniKa schrieb:
Switch Dynamic Tone Mapping to HGiG, though, and the TV essentially stops doing its own tone mapping. Instead, the image will be output based on the parameters set in the console's HDR calibration process.

Nur das hatte ich immer anders im Kopf wobei meine aussage zumindest stimmt das HGIG eben sein
eigenes Ding macht.

Das Problem is halt das wir kein Calibration Process in Windows haben wie es ihn auf den Konsolen
gibt sondern wir nehmen halt auf gut Glück die 800 bzw bei dir 750 Nits bei CRU weil es eben der Durschnitts Peak Wert anderer OLEDs is ... die Panel Variance übersehen wir dabei aber Wissentlich weil wir
das ja nur genau messen können wenn wir an unseren OLED den wir zuhause haben
ein ColorMeter drann packen und selbst nachmessen.


VaniKa schrieb:
Um das mal alles zusammenzufassen: Ich habe jetzt eigentlich nur die Nits mittels CRU auf 750 gestellt "für Windows" und den SDR-Content-Slider von 40 auf 20 gestellt, um SDR auf die Hälfte abzudunkeln. Und ansonsten verwende ich HGiG mit dazu passender Kalibrierung.

OK hast dich also meinen 20 angepasst ... ich bleib natürlich auch nich stur auf 20 ... hatte ja im Thread vor ner Weile bevor du angefangen hast dich hier zu beteiligen schon
geschrieben das ich auch mal 0 nehmen musste damits passt oder auch mal wie du die 40.
Aber momentan fahr ich mit 20 ganz gut.


VaniKa schrieb:
ich werde vielleicht nochmal genauer testen, ob die EDID-Werte wirklich das Auto-HDR beeinflussen. Eigentlich müssten ja die Highlights schwächer werden, wenn ich z.B. die Nit-Obergrenze von 750 auf 400 senke. Sollte ich da keinen Effekt feststellen, würde das bedeuten, dass die Werte nicht verwendet werden für Auto-HDR. Dann hätte ich Gewissheit.


Was Auto HDR angeht hab ich bisher damals nur meine Auto HDR Testreihe mit 13 Games gemacht
und mich ansonsten nich mehr groß damit befasst ausser eben das ich noch 2 Videos gemacht hab
wo man den Einfluss des Auto HDR Helligkeits Sliders sieht... den solltest du bei deinen Auto HDR Tests nich vergessen !!

1.jpg


Ansonsten hatte ich mit Auto HDR nix mehr am Hut bisher weil ich aber auch grad nur sehr wenig Spiele
und wenn sind es HDR Nativ Games.

Aber is gut wenn du das weiter Testest :daumen:
 
Zuletzt bearbeitet:
Stagefire schrieb:
der Durschnitts Peak Wert anderer OLEDs is ... die Panel Variance übersehen wir dabei aber Wissentlich weil wir
das ja nur genau messen können wenn wir an unseren OLED den wir zuhause haben
ein ColorMeter drann packen und selbst nachmessen.
Das ist ja eben der Grund für die Kalibrierung mittels Test-Programm wie "DisplayHDR Test". Das ist ja nichts anderes als die Logo-Kalibrierung in Spielen. Damit kann man einmalig zum Gerät mit den aktuellen Einstellungen (möglichst im HGiG-Modus, damit das Tone-Mapping nicht dazwischenfunkt) die Nit-Obergrenzen für den 10-%- und 100-%-Weiß-Test ermitteln, also ab wann es ins Clipping geht. Und das sind eben bei mir diese 750 Nits in beiden Tests (trotz unterschiedlicher Helligkeit). Sofern also Auto-HDR diesen Wert, den wir mittels CRU manipulieren, verwendet, wäre Auto-HDR auch kalibriert. Dasselbe träfe auf alle Programme zu, die eben diesen Wert als Kalibrierung nutzen, welche das auch immer sein mögen. Aber es schadet sicher nicht, wenn der Wert korrekt eingestellt wurde.

Also die Aussage ist: Mein TV kann bei den von mir vorgenommenen Einstellungen bis 750 Nits (als Eingangssignal) so darstellen, dass es nicht zu Clipping kommt (bei HGiG, also ohne Geräte-Tone-Mapping). Die tatsächlich gemessenen Nits mit einem Messgerät spielen dafür keine Rolle. Spielen sie ja auch nicht bei der Kalibrierung in Spielen oder auf der Konsole. Es geht immer ums Clipping bei der Kalibrierung. Man findet damit einfach die hellstmögliche Einstellung, unabhängig davon wie hell das Gerät damit eigentlich ist.

Stagefire schrieb:
geschrieben das ich auch mal 0 nehmen musste damits passt oder auch mal wie du die 40.
Aber momentan fahr ich mit 20 ganz gut.
Ich möchte halt vermeiden, immer an dem Regler herumspielen zu müssen, daher möchte ich da lieber ein gutes Mittelmaß finden. Toll wäre natürlich, wenn man auch pro Anwendung die SDR-Helligkeit regeln könnte, sodass z.B. bei Filmen im Vollbild die Helligkeit höher ausfiele als auf dem Desktop.

Wo ich gerade darüber nachdenke, wenn ich HGiG nutze und du dynamisches Tone-Mapping, dann ist dein Bild ja bei ansonsten gleichen Einstellungen deutlich heller als meines, also auch beim Desktop. D.h. dass meine 40er-Einstellung beim SDR-Regler ggf. gar nicht so viel heller ist als deine 20er-Einstellung, bzw. meine 20er-Einstellung deutlich dunkler als bei dir. Vielleicht war ich deswegen auch so unglücklich mit der Empfehlung, doch nicht diese "hohen 40" zu nutzen, da ich eben dabei schon merke, dass das Weiß eher ein helles Grau ist. Das kann aber bei dynamischem Tone-Mapping ganz anders, eben deutlich heller, wirken. Da ich allerdings die Spiele nun auch mit 20 deutlich schöner finde durch die besseren Helldunkel-Kontraste, muss ich echt mal schauen, was mir da auf Dauer lieber ist. Fest steht jedenfalls, dass ich auf Tone-Mapping im Gerät möglichst verzichten will und eben auch nicht ständig zwischen HGiG und dynamischem Tone-Mapping hin und her wechseln möchte.

Stagefire schrieb:
wo man den Einfluss des Auto HDR Helligkeits Sliders sieht... den solltest du bei deinen Auto HDR Tests nich vergessen !!
Ja, ich bin da zwar nie drauf eingegangen, aber ich habe den Slider schon benutzt und finde die maximale Intensität am besten. Ich bin mir aber nicht sicher, ob das nicht auch die Standardeinstellung ist. Ohne den Regler je berührt zu haben, ist da ja noch gar keine Einstellung sichtbar. Vom ersten Eindruck her würde ich sagen, war Default und Maximum eigentlich ziemlich gleich. Aber das kann auch täuschen, wenn man keinen direkten Vergleich hat, sondern immer wieder die Intensität fließend ändert, zumal man ja danach den Default nie wieder sieht. (Weißt du, wie man den Wert wieder auf Default zurücksetzt beim jeweiligen Spiel? Ist vermutlich irgendein Wert in der Registry.) Das macht es echt schwer. Aber zur Sicherheit kann man ja bei jedem Spiel einmal den Regler auf Anschlag stellen und gut ist. Mir gefällt das Bild zusammen mit SDR-Helligkeit 20 jetzt richtig gut.
 
VaniKa schrieb:
Das ist ja eben der Grund für die Kalibrierung mittels Test-Programm wie "DisplayHDR Test". Das ist ja nichts anderes als die Logo-Kalibrierung in Spielen. Damit kann man einmalig zum Gerät mit den aktuellen Einstellungen (möglichst im HGiG-Modus, damit das Tone-Mapping nicht dazwischenfunkt) die Nit-Obergrenzen für den 10-%- und 100-%-Weiß-Test ermitteln, also ab wann es ins Clipping geht.

Oh man .. du hast absolut recht ... ich hatte das VESA Dsiplay HDR Tool bzgl der anderen Tests ( ausser dem Viereck Test ) dort immer nur in Verbindung mit einem Colormeter gesehen.

Ich glaub ich muss doch nochmal anfangen mich damit nochmal genauer auseinander zu setzen
hatte die ganze Geschichte nun eigentlich für mich abgeharkt als "alles passt" aber
du hast ja recht das man mit dem Tool die Settings ja überprüfen kann per Sicht Prüfung.

Also 10 % Weiss und 100 % Weissbild sagst du soll man drauf achten ?
Und wie merkt man dann das es dort dann clipping gibt ?
( Sorry falls du das schonmal geschrieben hattest )

Bei den SchwarzViereck Test is das ja relativ einfach zu sehen sowie auch bei dem
Bunten Viereck Test was Jason aus dem AVS genommen hat was aber auf
einer Kalibier CD in Video Form vorhanden ist.

Oh man .. hätte auch nich gedacht das ich nun zu einem "Kalibrirer" werden
wobei das ja nur der Grundkurs is damit bin ich fein ... aber ich will nich zu
den gehören die nun da penible alles mit dem Colormeter abchecken und dann bei
Rot auf -3 und Blau +5 usw gehen. Hab das bisher immer Frei schnauze gemacht.

Aber hier mach ich mal ne kleine Ausnahme und schau mir zumindest diese Clipping
Geschichte nochmal genauer an.

VaniKa schrieb:
Ich möchte halt vermeiden, immer an dem Regler herumspielen zu müssen, daher möchte ich da lieber ein gutes Mittelmaß finden. Toll wäre natürlich, wenn man auch pro Anwendung die SDR-Helligkeit regeln könnte, sodass z.B. bei Filmen im Vollbild die Helligkeit höher ausfiele als auf dem Desktop.

Mein Mittelmass is mom 20 ... ich musste mal auf 0 weil da irgendwas nich stimmte .. das war so die anfangs Zeit wo ich begonnen hab mich damit zu befassen hier im Thread.

Erst war 40 ok dann musste ich mal auf 0 gehen und irgendwas hatte ich dann geändert in CRU oder so
und seit dem passt 20 bisher nun so ziemlich gut für mich.

Aber wie du auch gesehen hast nehmen manche auch 0 oder 12 ... hattest du ja in dem Bild gesehen wo
es um den Stromverbrauch ging.


VaniKa schrieb:
Wo ich gerade darüber nachdenke, wenn ich HGiG nutze und du dynamisches Tone-Mapping, dann ist dein Bild ja bei ansonsten gleichen Einstellungen deutlich heller als meines, also auch beim Desktop. D.h. dass meine 40er-Einstellung beim SDR-Regler ggf. gar nicht so viel heller ist als deine 20er-Einstellung, bzw. meine 20er-Einstellung deutlich dunkler als bei dir.

Das kann gut sein ... aber ich wechsel halt auch mal auf HGIG .. hatte gesagt ich bin da so 80:20
je nach Game. Aber gute Beobachtung !!

Werd da nacher mal schauen ob es einen unterschied macht .. hatte da bisher nich drauf geachtet
sondern halt einfach auf 20 gelassen.

VaniKa schrieb:
und eben auch nicht ständig zwischen HGiG und dynamischem Tone-Mapping hin und her wechseln möchte.

Ich hab da kein Prob mit ,, zur Not geht das sogar mit 2 - 3 Maus Clicks wenn man Color Control verwendet.
Ich mach das aber mit der Fernbedienung.

VaniKa schrieb:
Ja, ich bin da zwar nie drauf eingegangen, aber ich habe den Slider schon benutzt und finde die maximale Intensität am besten. Ich bin mir aber nicht sicher, ob das nicht auch die Standardeinstellung ist.

Ne Standart war damals bei mir Mitte mein ich ... sofern ich mich recht erinnere war der Slider auf der Mitte als ich ihn das erste mal angeschaltet hatte.

VaniKa schrieb:
Ohne den Regler je berührt zu haben, ist da ja noch gar keine Einstellung sichtbar. Vom ersten Eindruck her würde ich sagen, war Default und Maximum eigentlich ziemlich gleich. Aber das kann auch täuschen, wenn man keinen direkten Vergleich hat,

Also wenn ich dich nun richtig verstehe siehst du keinen Unterschied wenn du den Auto HDR Regler verstellst ?

VaniKa schrieb:
(Weißt du, wie man den Wert wieder auf Default zurücksetzt beim jeweiligen Spiel? Ist vermutlich irgendein Wert in der Registry.)

Ehrlich gesagt kann ich dir da grad nich ganz folgen ... bist du noch beim Auto HDR Slider ?
Is das nich egal was da Default war ?



OK grad nochmal geschaut .. ich war nun die ganze Zeit über mit HGIG unterwegs und da passt 20.
Bei Dynamisches Tone Mapping an muss ich auf 10 - 15 runtergehen damit das Bild in etwa dem Bild von OLED Light 35 gleich is.

Ich bin aber auch bei "Fine Tune Dark Areas" ( Feineinstellung Dunkler Bereiche ) auf -5
Das is ja wegen dieser VRR Black Crush Geschichte.

Ich würde natürlich auch lieber ein helleres Bild in SDR haben aber ich mach das ja aus einem Grund so dunkel eben als Vorbeugung gegen den Burn Out. Da bist du ja anders drauf und nich so vorsichtig wie ich.
Aber so war ich anfangs auch mal drauf bis dann das umdenken kamm. Hatte vorher auch bei SDR immer OLED light 100.

Aber Ich möchte ( falls der 42" OLED nix wird bzgl der 1000 Nits ) den 48CX für 5 Jahre nutzen
erst dann kommt ein neuer ... daher muss ich mit ihm schonend umgehen.

Ich nutze den OLED aber nun seit Juni 2021 für alles ( Surfen , Youtube , Gaming , Filme )
hatte den 48CX von Juni 2020 - Juni 2021 aber auch nur fürs Gaming genutzt.
Aber nun nach 1 Jahr schonfrist nutze ich ihn für alles ... und der alte BenQ wird nur noch
angemacht wenn der OLED seinen kleinen Pixel Refresh nach 4 std machen muss.

So siehts bei meinem 48CX momentan aus :

DSC_0077.JPG


2530 Betriebsstunden
553 Kleine Pixel Refreshes
1 Großer Pixel Refresh

2530 : 553 = 4,57 ... also alle 4,57 std läuft bei mir der kleine Refresh.
 
Zuletzt bearbeitet:
Stagefire schrieb:
Also 10 % Weiss und 100 % Weissbild sagst du soll man drauf achten ?
Und wie merkt man dann das es dort dann clipping gibt ?
Die Tests kommen nach den "mandatory" Tests weiter hinten.

Der erste Test heißt "Calibrate Max Tone Mapped Luminance Value". Dort hast du ein 10-%-Weiß-Feld mit vier kleinen Feldern (wie das Windows-Logo) innerhalb des Weiß-Felds, die dunkler sind als das Weißfeld, solange du unter dem Clipping-Wert bleibst. D.h. da wo diese kleinen Felder verschwinden, also genau so weiß werden wie das Weißfeld, wenn du den Nit-Wert erhöhst, liegt die Nit-Obergrenze, die du dann in CRU als den obersten Wert einträgst. Das Weißfeld selbst wird offenbar einfach mit einer unrealistisch hohen Helligkeit gesendet, damit es auf jedem Gerät garantiert dem maximalen Weiß entspricht, an dem man sich dann orientiert für die Kalibrierung.

Der zweite Test kommt direkt danach und heißt "Calibrate Max Full Frame Luminance Value". Da hast du den gleichen Test, bloß, dass das Weißfeld den gesamten Screen (100 %) umfasst. Auch da gibt es diese vier Felder in der Mitte, die wie das Windows-Logo aussehen. Der Wert, der da die Clipping-Grenze darstellt, ist der Wert, den man in CRU als mittleren Wert einträgt. Bei mir waren beide Werte gleich.

Natürlich muss man den Nit-Wert in den CRU-Wert umrechnen. 750 Nits entsprechen dem Wert 125. Da muss man dann ggf. etwas mit CRU herumspielen, welcher Wert da dem ermittelten Nit-Wert entspricht, wenn man den Wert nicht fertig irgendwo findet.

Ich würde auf jeden Fall empfehlen, diesen Wert dann zu nutzen und nicht die 800 für dein Gerät. Das wird wie gesagt vermutlich so bei 950 bei dir liegen. Und kalibriere das unbedingt mit HGiG, damit das Tone-Mapping die Kalibrierung nicht verfälscht. Du kannst hinterher natürlich gerne wieder DTM aktivieren, wenn du das so sehr magst.

Stagefire schrieb:
Also wenn ich dich nun richtig verstehe siehst du keinen Unterschied wenn du den Auto HDR Regler verstellst ?
Nein. Siehe unten...

Stagefire schrieb:
Ehrlich gesagt kann ich dir da grad nich ganz folgen ... bist du noch beim Auto HDR Slider ?
Is das nich egal was da Default war ?
Also bei mir ist das so, wenn ich ein Spiel zum ersten Mal mit Auto-HDR starte, dann hat der Slider noch gar keinen sichtbaren Wert. Erst wenn ich draufklicke und ihn bewege, wird ein Wert erkennbar. Daher weiß ich nicht, welcher Slider-Einstellung der voreingestellte Wert entspricht. Gefühlt entsprach er aber dem Maximum, darauf möchte ich aber kein Gift nehmen. Er kann auch etwas niedriger gewesen sein. Leider lässt sich ja die Standardeinstellung nicht so einfach wiederherstellen, wenn der Slider einmal bewegt wurde. Daher die Frage, ob du weißt, wie man den Slider ggf. zurücksetzen kann. Aber man kann eben auch einfach zur Sicherheit in jedem Spiel einmal den Slider voll nach rechts ziehen und gut. Wäre nur ganz interessant zu wissen, welche Intensität verwendet wird, wenn man den Slider nie anfasst.

Ich habe übrigens jetzt den Test gemacht und mittels CRU mal extra niedrige Werte eingestellt. Einmal 400 Nits und dann sogar nur 179 Nits. Und ja, halleluja, Auto-HDR orientiert sich tatsächlich an den Werten! Die Highlights waren mit den niedrigeren Werten deutlich schwächer. Die EDID-Manipulation dient für Auto-HDR also tatsächlich als Kalibrierung. Somit ist der ganze Kram dann auch nachweislich kein Quatsch oder Placebo-Effekt. Windows nutzt das zumindest für Auto-HDR. Und möglicherweise wird das in Zukunft ja noch für andere Anwendungsfälle relevant. Also schön kalibrieren und richtig einstellen. 🙂

Den Auto-HDR-Slider dann immer maximal nach rechts bewegen. Reduzieren wäre in meinen Augen nur dann sinnvoll, wenn die Nit-Obergrenze nicht korrekt eingestellt ist und über dem tatsächlichen Wert liegt, also z.B. auf diesen 1499 steht. Möglicherweise sollte man dann den Slider so einstellen, dass man ihn wie einen Prozentregler verstehen kann, also bei 1499 Nits (falsch) und 750 Nits (real) den Slider auf 750/1499 = 50 % stellen. Aber ob das wirklich so linear funktioniert, weiß ich natürlich nicht. Besser oder sicherer wäre es wohl immer, die korrekten Nit-Werte an Windows zu melden.

PS:
VaniKa schrieb:
Gefühlt entsprach er aber dem Maximum, darauf möchte ich aber kein Gift nehmen.
Das erscheint mir zumindest logisch, denn der einzig sinnvolle Zweck des Sliders ist ja eher, die Intensität zu senken, nämlich für den Fall, dass die EDID-Werte fehlen und zu hoch angesetzt werden von Windows. Im Default möchte man ja nicht mit zu geringer Intensität fahren, was man ja auch bei den 1499 Nits sieht, die Windows als Fallback-Wert nutzt, um in jedem Fall jeden Bildschirm maximal zu treiben und ggf. dann dem Tone-Mapping des Geräts das Herunterregeln zu überlassen.
 
Zuletzt bearbeitet:
VaniKa schrieb:
Der erste Test heißt "Calibrate Max Tone Mapped Luminance Value"
solange du unter dem Clipping-Wert bleibst. D.h. da wo diese kleinen Felder verschwinden, also genau so weiß werden wie das Weißfeld, wenn du den Nit-Wert erhöhst, liegt die Nit-Obergrenze, die du dann in CRU als den obersten Wert einträgst.

Also man muss den Wert eintragen der kommt bevor die kleinen Weissen Felder in der Mitte verschwinden ?

Also mit 800 Nits seh ich die zb garnicht... das heisst ich muss unter 800 nits gehen bei CRU ?
Wobei .. wenn ich das Fenster mit der Maus hin und her bewege erkenne ich noch leichte Schemen der
einzelnen Vierecke und in der Mitte sehe ich ein Kreuz das heller is. also ich erkenne dann ganz leicht noch
die Vier Einzelnen Vierecke und nich nur 1 Großes.

Heisst das 800 passt oder sollte ich besser weiter runtergehen damit ich die vierecke besser sehe ?

Nachtest nachdem ich verstanden habe das man mit dem Pfeiltasten die Nits dort anpassen kann :

HDR 10 = 739 ... Nits = 764 .... da erkenn ich noch grade so wenn ich mich konzentriere die Vierecke .

VaniKa schrieb:
Der zweite Test kommt direkt danach und heißt "Calibrate Max Full Frame Luminance Value". Da hast du den gleichen Test, bloß, dass das Weißfeld den gesamten Screen (100 %) umfasst. Auch da gibt es diese vier Felder in der Mitte, die wie das Windows-Logo aussehen

Der Test kommt bei mir vor dem anderen nich danach.

Ah man kann mit den Pfeiltasten die Nits runterstellen und dann sieht man wie die Vierecke verschwinden bzw auftauchen.

HDR 10 = 741 ... Nits = 778 ist bei mir der Punkt wo ich grade noch die 4 Vierecke in der mitte sehen kann
wenn ich mich Konzentriere.

VaniKa schrieb:
Der Wert, der da die Clipping-Grenze darstellt, ist der Wert, den man in CRU als mittleren Wert einträgt. Bei mir waren beide Werte gleich.

So sollte es ja auch sein laut uns und dem AVS um dem HGIG PDF.


VaniKa schrieb:
Natürlich muss man den Nit-Wert in den CRU-Wert umrechnen. 750 Nits entsprechen dem Wert 125. Da muss man dann ggf. etwas mit CRU herumspielen, welcher Wert da dem ermittelten Nit-Wert entspricht, wenn man den Wert nicht fertig irgendwo findet.

Jepp .. so haben wir das damals mit den 800 nits ( 128 ) auch gemacht. Sowie auch erst mit den 140 Nits ( 48 ) für das 100 % Weiss Bild wo wir damals dachten das is mit Max Frame AVG gemeint.
Oder bei dem Real Scene Wert 564 Nits ( 112 )

VaniKa schrieb:
Ich würde auf jeden Fall empfehlen, diesen Wert dann zu nutzen und nicht die 800 für dein Gerät. Das wird wie gesagt vermutlich so bei 950 bei dir liegen.

Ne nich wirklich ... interessanter weise bin ich auch so in deinem Bereich.

VaniKa schrieb:
Und kalibriere das unbedingt mit HGiG, damit das Tone-Mapping die Kalibrierung nicht verfälscht. Du kannst hinterher natürlich gerne wieder DTM aktivieren, wenn du das so sehr magst.

Jepp hatte bevor ich das Tool gestartet habe auf HGIG gestellt aber halt mit den 800 Werten in CRU
sollte man vorher wieder auf Default stellten ? Also auf die falschen 1499 Nits bevor man mit dem Vesa tool testet ? Weil ich hab nun mit dem Vesa Tool mit den 800 bei CRU getestet.


VaniKa schrieb:
Also bei mir ist das so, wenn ich ein Spiel zum ersten Mal mit Auto-HDR starte, dann hat der Slider noch gar keinen sichtbaren Wert. Erst wenn ich draufklicke und ihn bewege, wird ein Wert erkennbar.

OK da hab ich bisher nie drauf geachtet ... aber ich glaub der stand wie gesagt bei mir immer Mittig.
Bin mir nun aber auch nich zu 100 % sicher. Glaub aber nich das man den nochmal zurück auf Default bekommt.

Und klar .. du weisst ja das ich helligkeit mag daher wandert der Auto HDR Slider bei mir immer ganz nach Rechts :-)

VaniKa schrieb:
Ich habe übrigens jetzt den Test gemacht und mittels CRU mal extra niedrige Werte eingestellt. Einmal 400 Nits und dann sogar nur 179 Nits. Und ja, halleluja, Auto-HDR orientiert sich tatsächlich an den Werten!

Ah gut zu wissen .. also wie vermutet hat es einen Einfluss darauf.


Das sollte man dann wohl auch beachten :

55.jpg



So .. was is der "OS Brightness Slider" und was der "SDR Color appearance Slider"

SDR Color würde ich nun auf den Windows SDR Slider tippen und der soll dann ganz nach Links
was heissen würde auf 0

222.jpg


.. aber OS Helligkeits Slider ?
Vielleicht der vom Nvidia Treiber ?

777.jpg




Also egal ob mit 1499 Nits oder 800 Nits .. der Test fällt gleich zu dem Test den ich oben geschrieben habe aus. Grad nochmal mit 1499 Nits getestet .. is beides Indentisch.

Und der Windows SDR Slider hat auch keinen Einfluss auf den Test.

HDR = 740 Nits und Nits = 770 Nits ... das is der Bereich wo ich noch grade eben die Vierecke sehe kann wenn ich mich konzentriere und ganz genau hinschaue

Die Frage is nun .. nehm ich die 740 Nits oder die 770 Nits ?


1.jpg


Oh aber die Fine Tune Dark Area Sache hatte ich noch auf -5 das macht das Bild dunkler .. teste nun nochmal mit 0. Denke aber soviel unterrschied macht das auch nich

Doch .. das hat Einfluss auf den Test aber nur minimal in meinem Fall ... wenn ich Fine Tune auf 0 stelle wandert der Punkt auf HDR = 741 und Nits = 777 Nits

Interessant is auch das wenn man das VESA Tool Fenster mit der Maus hin und her wandern lässt man leichter den Unterschied erkennt als wenn man es sich im Stillstand anschaut.
 
Zuletzt bearbeitet:
Stagefire schrieb:
wenn ich das Fenster mit der Maus hin und her bewege
Du solltest den Test im Vollbild laufen lassen (so startet er bei mir auch), weil sonst auch die 10-%- und 100-%-Flächen gar nicht mehr zutreffen und außerdem nichtschwarze Störflächen vorhanden sind, die von der Maximalhelligkeit rauben. Beides verfälscht das Ergebnis.

Stagefire schrieb:
Heisst das 800 passt oder sollte ich besser weiter runtergehen damit ich die vierecke besser sehe ?
Man sollte die Vierecke so gerade eben nicht mehr sehen. Also quasi einen Notch über dem noch gerade Sichtbaren. So wird sichergestellt, dass die maximale Helligkeit später auch wirklich angesprochen werden kann und nicht nur leicht darunter. Forza Horizon 4 sagt auch bei der Kalibrierung, man soll den Slider so weit nach rechts stellen, bis man das Logo nicht mehr erkennt.

Stagefire schrieb:
Jepp hatte bevor ich das Tool gestartet habe auf HGIG gestellt aber halt mit den 800 Werten in CRU
sollte man vorher wieder auf Default stellten ?
Das ist egal, weil du von Hand den Nit-Wert einstellst im Test. Der Test startet lediglich auf dem CRU-Wert als Default.

Stagefire schrieb:
So .. was is der "OS Brightness Slider" und was der "SDR Color appearance Slider"
Da ist die Rede von "internal panel", das wird uns also wohl gar nicht betreffen. Betrifft möglicherweise Laptops und Tablets. Die Factory-Defaults sind in unserem Fall auch unnötig, weil wir mit den Einstellungen, die wir nutzen wollen, testen. Was bringt es, wenn man auf Cold einen höheren Nit-Wert erreicht, dann aber auf Warm spielt und den Nit-Wert nicht mehr erreichen kann? Ich möchte den Wert ermitteln, der zu meinen Einstellungen passt. Die NVIDIA-Farbeinstellungen würde ich auf jeden Fall für den Test zurücksetzen. Ich habe da noch nie etwas geändert.

Stagefire schrieb:
Also egal ob mit 1499 Nits oder 800 Nits .. der Test fällt gleich zu dem Test den ich oben geschrieben habe aus. Grad nochmal mit 1499 Nits getestet .. is beides Indentisch.
Ja, genau. Weil es keine Rolle spielt. Du steuerst das ja selbst. Der Test benutzt diese Werte nur als Startwerte.

Stagefire schrieb:
Und der Windows SDR Slider hat auch keinen Einfluss auf den Test.
Ja, weil der Test im HDR-Raum stattfindet.
 
Zuletzt bearbeitet:
VaniKa schrieb:
Du solltest den Test im Vollbild laufen lassen (so startet er bei mir auch), weil sonst auch die 10-%- und 100-%-Flächen gar nicht mehr zutreffen und außerdem nichtschwarze Störflächen vorhanden sind, die von der Maximalhelligkeit rauben. Beides verfälscht das Ergebnis.

Ich hatte im Vollbild getestet .. fand es nur interessant das wenn man im Fenster Mode is und das Fenster mit
der Maus hin und her schiebt man einen Unterschied sah der vorher nich da war im Vollbild.

VaniKa schrieb:
Man sollte die Vierecke so gerade eben nicht mehr sehen. Also quasi einen Notch über dem noch gerade Sichtbaren. So wird sichergestellt, dass die maximale Helligkeit später auch wirklich angesprochen werden kann und nicht nur leicht darunter.

ah okay .. dann hatte ich das Gestern falsch gemacht ... dennoch isses schwer den genauen Punkt zu finden
ich schwanke bei "Calibrate Max Tone Mapped Luminance Value" zwischen :


Hier kann ich noch ganz ganz minimal einen unterschied erkennen wenn ich meinen Kopf hin und her bewege aber da muss ich echt schon ganz genau hinschauen

1.jpg


Und hier seh ich dann garkeinen Unterschied mehr

2.jpg


Bei "Max Full Frame Lumi" isses auch schwer und da schwanke ich auch zwischen 2

3.jpg


ich nehme aber die HDR 744 und Nits 800 bzw 799

Aber welchen Wert nehm ich dann nun bei CRU ?
Die 744 oder die 800 ? Denke mal die 800 oder ?
Dann kann ich ja die 128 in CRU auch stehen lassen die ich vorher schon drinn hatte.


Aber danke .. hab ich wieder was dazu gelernt !!

VaniKa schrieb:
Da ist die Rede von "internal panel", das wird uns also wohl gar nicht betreffen. Betrifft möglicherweise Laptops und Tablets. Die Factory-Defaults sind in unserem Fall auch unnötig, weil wir mit den Einstellungen, die wir nutzen wollen, testen.

Ja .. da gehts um Externe Displays also unsere OLEDs oder PC Monitore
und Interne Panels damit sind dann Laptops gemeint .. ich hatte gestern auch nochmal
etwas gegooglet und das dann rausgefunden. War erst etwas verwirrt.


Übrigens wird der 42" dann wohl die C Serie werden ( was gut is ) .. Vince scheint aber davon auszugehen
dass das EVO Panel nur bei der G Serie bleibt so auch der Heatsink ( was schlecht is ) zumindest bringt
er den 42" nicht damit in Verbindung in dem Video.

 
Zuletzt bearbeitet:
Stagefire schrieb:
Die 744 oder die 800 ? Denke mal die 800 oder ?
Ja, die Nits, also 800. Dann passt das ja bei dir genau. Ich bin dann nur verblüfft, dass mein B1 auch noch satte 750 schafft. Dein Monitor schafft ja ungefähr auch den Peak-Wert aus dem RTINGS.com-Review. Meiner übertrifft den Wert aber um fast 200 Nits im Gaming-Modus. Vielleicht ist das ja wirklich ein Panel, bei dem es nicht mehr ganz für ein höheres Modell, also die 800, gereicht hat. Dann muss ich ja jetzt nicht ganz so neidisch zu den C1-Nutzern schielen. 😉
 
Na dann bin ich Mal auf Preis und Veröffentlichungsdatum gespannt. Von dem 42zoller

Das Burnin Problem sehe ich bei mir eigentlich gar nicht..
Ich arbeite im wechselnden Schichtdienst.. (2tage früh.. 2tage spät ..2tage nacht.. 3 Tage frei.. )
es ist selten das ich Mal 5std am Stück am PC sitze zur Zeit.. und wenn nur am "Wocheende"
An so Tagen wie heute wo ich spät habe ist der PC meist ausgeschaltet..
Ansonsten zock ich nochmal ne Std zwischendurch und ich hab ja auch n leben neben dem hobby
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Na dann bin ich Mal auf Preis und Veröffentlichungsdatum gespannt. Von dem 42zoller

Release is eigentlich Easy ... dürfte so um den März - Mai 2022 rum sein so wars die letzten jahre.
Offiziell angekündigt wird er dann zu 100% wieder bei der CES
4.jpg


Preis Tippe ich auf 1300 Euro ( weil 48" für 1650 euro ) und im Oktober 2022 dann für so 800 Euro.

Der 48C1 is im April 2021 für 1650 Euro Gestartet und is nun für 1000 Euro zu haben.

1.jpg


Die 100 Euro Rabat nich übersehen :

2.jpg



Als Grau Import bekommt man ihn auch für so 940 Euro

Blackfirehawk schrieb:
Das Burnin Problem sehe ich bei mir eigentlich gar nicht..
Ich arbeite im wechselnden Schichtdienst.. (2tage früh.. 2tage spät ..2tage nacht.. 3 Tage frei.. )
es ist selten das ich Mal 5std am Stück am PC sitze zur Zeit.. und wenn nur am "Wocheende"

Es geht nich nur darum wie lang der OLED an is sondern was er anzeigt ... und da reicht es auch
zb immer das gleiche Spiel für 1 std Pro Tag zu spielen und man bekommt nen Burn In.

akumuliert is da das Zauberwort ... man bekommt eigentlich kein Burn Out wenn man
nun 8 std am Stück das selbe Spiel spielt ... da bekommt man höchsten für ein paar Minuten ne
Image Rentention also ne kurze Zeit ne Art Ghosting Bild das geht dann aber so nach 2 min weg.
Das hatte ich bei Diablo 2 gehabt das man da das UI unten noch kurz sah wenn ich das Spiel beendet hatte.

Aber Burn Out is akumulierte Zeit des selben Inhalts.

Man soll also nich das selbe Spiel Tag ein Tags aus zocken weil dann bekommt man nen Burn Out.
Content wechseln ... is das Zauberwort... also mal dies Spiel mal das Spiel .. dann mal diese Webseite und jene und diesen Film und diese Serie und dann wieder das Spiel und jenes Spiel usw.

Wer dauernt nur WOW zockt der bekommt bald nen Burn Out .. wer aber wechselt bei dem dauert es Jahre
bis zum Burn Out ... aber klar ... irgendwann isser da .. das is halt so bei Organischen LEDs das sie halt altern.
Aber wenn man acht gibt dauert das schon ein paar Jahre ... nur wenn man leichtsinnig is kann man nach 1 jahr oder so schon ein Burn Out haben.

Ich nutze meinen 48CX nun schon 17 Monate und noch is alles Tutti.
 
Zuletzt bearbeitet:
Ach da mach ich mir keine Gedanken. Selbst beim spielen bin ich zwischen den runden/mapwechsel ect dauernt am hin und her tabben.. und ich zock ja auch nicht durchgehend das gleiche
 
  • Gefällt mir
Reaktionen: Stagefire
Habe das Ganze bei mir auch mal konfiguriert. Wow, was für ein Unterschied! Danke für dein Post. 🙂😎👍
 
Wobei ich mittlerweile der Meinung bin die Farbräume sind nicht so wichtig.. reicht wenn man sie bt2020er hat

Viel wichtiger sind die Metadaten und noch die Gamma Transfer Funktionen
 
VaniKa schrieb:
Kannst du mir sagen, was genau das macht, in welchen Szenarien und woher du das hast?

Da er nich Antwortet spring ich mal kurz ein.

Zumindest diese ganzen Metadata Dinger MD0 , MD1 usw brauch man wohl nich anklicken da Windows diesen ganzen Colorimetry Block wohl eh Ignoriert :


1.jpg


https://www.monitortests.com/forum/Thread-Data-Blocks

mehr info hab ich dazu bisher nich gefunden .. is natürlich nun nich genau das wonach du gefragt hast aber immerhin wieder was neues.

Ok Traditional Gamma ( Gamma Transfer Funktion ) sollte man bei HDR wohl auch nich nutzen und somit den Harken bei CRU weglassen statt setzten. Für SDR isses ok aber bei HDR nich also passt dann auch schon die Standart Einstellung die CRU hat.

"HDR doesn't employ the traditional gamma system used by HDTV and the earlier NTSC video format, which takes into account the display's peak brightness and lowest black level capability and then adjusts the values in between to create a desired balance. HDR instead uses an absolute system called Perceptual Quantizer (PQ) where each video level is mapped one-to-one with the display"

https://www.soundandvision.com/content/hdr-explained

"The PQ curve covers a much wider luminance range
than HDTV and maps each signal value directly to the
same absolute luminance level on every HDR display,
unlike the traditional gamma curve, where a specific
signal value produces a different luminance level on
each different display, depending upon each display’s
peak luminance. "

https://app.spectracal.com/Documents/White Papers/HDR_Demystified.pdf

Sprich es reicht einfach nur die 3 bzw 2 Lumi Werte ( Max Lumi , Max Frame AVG , Min Lumi ) bei CRU einzugeben von seinem Monitor / TV den Rest kann man einfach weglassen.
 
Zuletzt bearbeitet:
Zurück
Oben