Suspektan schrieb:
In der von tectracks gezeigten Szene ist sie jedenfalls sicher nicht so hoch, zumal sie eh nicht über 200 nits liegen sollte, um eben die Highlights sich noch absetzen zu lassen.
Wie gesagt liegt es immer daran was halt eben grade auf dem Bild zu sehen ist.
Hatte doch schon das Beispiel genannt das Heller Schnee nunmal heller is als schattige Erde
und somit is die Grundhelligkeit dann jeweils auch anders je nach Scene eben.
Hier liegt die Grundhelligkeit bzw eben die größte sichtbare Fläche auf dem Bild zb bei 1000 - 2000 Nits
und dann haben wir halt noch das "Low Light" eben den Charakter im Bild also da wurde halt alles auf dem
Kopf gestellt ... is ja je nach Scene unterschiedlich wie gesagt
Nimmt man nun aber mal eine Dunkle Scene is die Grundhelligkeit eben ganz anders
Hier bei dieser Scene is die Grundhelligkeit eben 2.5 - 5 Nits :
Heatmap :
Normales Bild :
Und hier isse auch wieder anders :
Suspektan schrieb:
Wird ja eh für den abgedunkelten Raum gemastert, daher benötigt man an sich auch keine allzu hohe Grundhelligkeit in Filmen. (als Effekt einsetzen kann man es natürlich dennoch wie in der Matrix Szene)
Ja Filme is halt nochmal n Sonder Ding die werden eben anders als Games gemasert vom Film Studio
das passiert bei Games ja nich da wir ja im Game Menu selber Mastern können um eben zb die
Passenden Nits für das Gerät dort einzustellen und noch weitere HDR sachen.
Die helle Matrix Scene da da hat das viele Weiss nur 400 oder 600 Nits is halt so vom Filmemacher gemastert worden da was vor kurzem im AVS Forum ein Thema weil der G5 bei einem HDTVTest Video da seltsamerweise heller war als der Sony Reference Monitor
... anders eben als die Final Fantasy Scene die ich gepostet hatte die ja im Bereich
1000 - 2000 Nits bei dem vielen Weiss lag da man Games ja selber zuhause Mastern kann bei der
HDR Kalibrierung im Game Menu sowas hat ein Film ja nich.
Suspektan schrieb:
Ich rede von nativer HDR Wiedergabe mit korrektem eotf Verlauf und Midtones liegen eben nicht im hdr Peakbereich >200 nits.
kommt drauf an wieviel Nits das Gerät kann weil das verändert dann eben wie das Tone Mapping
arbeitet sah man ja auch bei meinem Cyberpunk Beispiel wo ich 3000 mit 400 Nit vergleichen hab etwas
das je mehr Nits anliegen desto mehr werden auch andere objekte heller dargestellt als bei einem 400 Nit gerät
sonst würde ja nur die Sonne heller werden eben das Highlight aber der Rest drum herrum nich
Aber auch das Variiert halt je nach Scene
Suspektan schrieb:
Ein reiner Peakhelligkeitsregler beeinflusst eben das Tonemapping in keiner Weise, sondern lässt ab dem eingestellten Grenzwert hart clippen.
Nun ich hab da bei meinem Beispiel oben mit 3000 nits vs 400 nits nix anderes verstellt als den Peak Bereich
und das Tone Mapping passt sich der neuen grenzen dann an und verteilt die einzelnen helligkeit
der objekte anders damit jedes objekt sich dann immer noch von einem andern was eine andere helligkeit
hat absetzen kann ... das würde man besser in meinem beispiel oben sehen wenn ich die Heatmap auf
400 nits drosseln könnte aber weniger als 1000 nits geht da leider nich
Suspektan schrieb:
Ich beziehe mich auf die genannte Szene
Da werden Wände und Gesichter mit abgedunkelt, was eben nicht bei rein reduzierter Peakhelligkeit auftreten würde.
hmm muss ich nacher mal testen
Aso ... nun weiss ich was du da meinst ... du meinst die Techtracks Star Treck Scene wo er 1000 vs 600
getestet hat ... du darst nich überlesen was ich 2 mal dazu geschrieben hatte und er auch im Video sagt
das es eben nich zu 100 % akkurat is
Ich sagte als ich die Star Treck Bilder gepostet hatte :
Also nicht überlesen !!! Das ist kein 100 % Akkurater Vergleich wie ich schon Gestern sagte !!!
Is aber bei HDTVTests Vergleichen genauso wenn man sich nun den 1.500 G4 und den 2.200 Nits G5 anschaut :
Auch da is das Gesicht halt dunkler :
Du vergisst halt das die Kamera die dieses Bild aufnimmt auch noch reinfuscht aber mehr Nits heisst halt heller
und die Kamera mit der man das Video / Bild Material erstellt passt sich dem hellsten licht an was zur folge
hat dass das Dunklere Gerät unnatürlich dunkel dargestellt wird.
Und das selbe was du da bei HDTVTests vergleich mit dem FIlm Pan gesehen hast sieht man eben auch
beim Techtracks vergleich mit der Star Trek Scene
--
Extreme wird es wenn man DTM On mit DTM Off gegentest :
Suspektan schrieb:
HDR1000, HDR600, HDR400 modi entsprechen noch lange nicht einem reinen Peakbrightness-regler, sondern verändern gerne die eotf mit wie auch bei dem kürzlich genannten Philips qd-oled.
Bei meinem Asus PG43 wars aber eine Nit Drosselung und keine EOTF anpassung
https://dlcdnets.asus.com/pub/ASUS/LCD Monitors/PG43UQ/PG43UQ_German.pdf?model=PG43UQ
Und 600 und besonders 400 sah halt echt schnöde aus im vergleich zu 1000 bei meinen Tests damals
Mein damaliger 43" PG hatte ähnliche Werte wie dieser 43" Gigabyte der 1 Jahr später rauskamm
der Gigabyte hatte das selbe AUO VA Panel + halt Quantum Dots das hatte mein PG43 damals nich
daneben dann mein aktueller 2020er 48" CX der halt so performt als wenn ich damals den
PG43 auf HDR 600 gestellt hatte is halt schon ein Downgrade für mich gewesen aber war halt
ein Trade Off .. Tausche Smearing und Ghosting vom PG43 VA gegen weniger helligkeit des 48" CX OLEDs
---
Mein nächster OLED TV wird dann aber definitiv heller als der 48" CX .. aktuell peile ich
den 42" G6 oder G7 an sofern er denn rüber wandert in die G Serie ansonsten halt den 48" G6 oder G7
ich brauch halt echt langsam wieder die helligkeit die ich damals beim PG43 hatte
dat vermiss ich halt seit Tag 1
Suspektan schrieb:
Und natürlich verliert man bei 400nits max an HDR Effekt
jepp absolut damit is man halt leider fast wieder im SDR Bereich es scheint da drausen aber Leute zu geben
die damit zufrieden sind
Ich dagegen finde das diese ganzen HDR 600 und HDR 400 Kisten den Ruf von HDR schädigen weil es eben
auch Leute gibt diese diese Kisten kaufen und denken : "man der kann ja HDR schalte ich mal ein muss ja voll fetzen " .. und dann merken sie das es sich kaum von SDR unterscheidet und darauf hin dann HDR scheisse finden und es gab damals sau viele von diesen schnöden HDR 400 und HDR 600 kisten teils Heute noch.
Und ich finde es schade das Leute mit diesen schnöden kisten ihr erstes HDR Erlebniss haben
bei mir wars damals der Asus PG43 mit HDR 1000 und da war ich echt buff ... die 700 - 800 Nits und das
krasse ABL bei meinem LG 48" CX dagegen haben mich dann was HDR angeht entäuscht
also mein 800 Nit OLED sieht so aus bei HDR Games als wenn ich damals beim PG 43 auf HDR 600 gestellt hab
Hohe Nit Werte sind nunmal wichtig für HDR aber du und ich wissen das nur leider einige andere
da drausen noch nich.
Suspektan schrieb:
Kann man sich mit lilium auch den APL anzeigen oder Bereiche markieren und sich den durchschnittlichen Helligkeitswert für diesen Bereich errechen lassen?
puh kein plan hab ich noch nich nachgeschaut
Man hat ja zumindest den AVG Wert aber halt ohne markierung
Edgeraze schrieb:
Ist mein QD-OLED doch nicht unbrauchbar bei den richtigen Games. 😀
Hat ja auch niemand behauptet .. sondern die QD-OLED Monitore performen halt nur in HDR etwas schlechter als die OLED Monitore und sehr viel schlechter als die QD-OLED und OLED High End TVs sie sind halt einfach nur am unteren ende zu finden und weniger am oberen Ende das heisst aber natürlich nicht das sie unbrauchbar sind und das hat ja auch niemand hier gesagt.
Und es gibt ja auch einige Leute da drausen dennen eben so 400 - 600 Nits reichen sonst würden sich diese Leute seit vielen jahren diese ganzen Krüppel HDR 400 - 600 LCDs ja nich kaufen und dir scheinen ja von so
400 - 1.000 Nits die augen schon zu brennen also dann is dieses untere ende der HDR Geräte halt genau dein Ding wie es aussieht.