HDR unter Windows, Howto

Suspektan schrieb:
klar, weil sich die Highlights kaum noch vom sdr Helligkeitsbereich (0-200 nits) absetzen können.
Nur dunkelt das ja nicht den SDR BEreich mit ab

nein, ich sage, dass ein Absenken der PEakhelligkeit von z.B. 1400 nits auf 400 nits nicht wie im Beispiel gezeigt die Grundhelligkeit reduziert.
Mein Panasonic oled besitzt einen einstellbaren Peakhelligkeitsregler mit exakter Angabe des Grenzwertes.
Da kann ich z.B. von 850 auf 400 nits herabsetzen, Spitzlichter werden damit stark gedimmt, aber die allgemeine Bildlhelligkeit wie eben die Wände, Gesischter, Boden bleibt identisch.
Nutze ich hingegen den allgemeinen Helligkeitsregler zum Absenken der HDR Helligkeit wird die gesamte EOTF nach unten hin angepasst und die Grundhelligkeit mit gesenkt.
Und dieses Verhalten zeigt auch der Vergleich
Ergänzung ()


Und dennoch kann der MEnsch im angedunkelten Raum problemlos zwischen 0,01 und 0,001 nits unterscheiden.
ca. 20% der Abstufungen des gesamten HDR Helligkeitsmfangs von 0-10000 nits entfallen allein auf den Bereich 0-2 nits
Anhang anzeigen 1611662

Eben weil wir so empfindlich in diesem Bereich sind und die Abstufungen noch erkennen können





SChwarz bezeichnet eben die Oberflächeneigenschaft, das auftreffende Licht zu absorbieren und somit nicht zu reflektieren.
Wenn das reflektierte Licht aber unterhalb der Wahrnehmungsschwelle liegt, wird es immer noch als tiefschwarz empfunden, und das ist bei oeld auch im abgedunkelten Raum der Fall.
Unabhängig davon, dass es sich dann vielleicht nicht um echte 0 nits, sondern 0,00001 nits oder weiß ich was für einen Wert handelt.
Ein sehr hoher Kontrastwert ergibt sich daraus aber immer noch
Ich bezweifle auch nicht, dass Schwarz wichtig ist und gerade OLED hier glänzt (Dafür liebe ich OLED) aber für den echten Genuss von HDR braucht es Nits ohne Ende. Wenn dir im TV ein Fernlicht ins Gesicht leuchtet (im dunkeln) muss es etwas wehtun ;)
 
Stagefire schrieb:
kommt drauf an wie hell die Grundhelligkeit der jeweiligen Scene ist
In der von tectracks gezeigten Szene ist sie jedenfalls sicher nicht so hoch, zumal sie eh nicht über 200 nits liegen sollte, um eben die Highlights sich noch absetzen zu lassen.
Wird ja eh für den abgedunkelten Raum gemastert, daher benötigt man an sich auch keine allzu hohe Grundhelligkeit in Filmen. (als Effekt einsetzen kann man es natürlich dennoch wie in der Matrix Szene)

Stagefire schrieb:
Und auch gibt es neben den Highlights und den Shadows auch die Mid Tones die sich auch ganz gerne mal
in höheren Bereichen befinden können halt je nachdem wieviel Nits das Gerät kann passt ja dann das
Tone Mapping die Helligkeitsbereiche auf dem Bild an.
Ich rede von nativer HDR Wiedergabe mit korrektem eotf Verlauf und Midtones liegen eben nicht im hdr Peakbereich >200 nits.
Ein reiner Peakhelligkeitsregler beeinflusst eben das Tonemapping in keiner Weise, sondern lässt ab dem eingestellten Grenzwert hart clippen.

Ich beziehe mich auf die genannte Szene
Stagefire schrieb:
Das folgende is zwar nich zu 100 % ein Akkurater Vergleich zeigt aber dennoch das auf was ich meine :


[IMG]https://www.computerbase.de/forum/attachments/screenshot-2025-04-26-004803-png.1611238/[/IMG]


[IMG]https://www.computerbase.de/forum/attachments/screenshot-2025-04-26-004845-png.1611239/[/IMG]
Da werden Wände und Gesichter mit abgedunkelt, was eben nicht bei rein reduzierter Peakhelligkeit auftreten würde.


Stagefire schrieb:
Das konnte ich damals beim Asus PG43UQ mit HDR 1000 auch im Monitor Menu machen
und habs damals im Februar 2020 auch getestet.

Da konnte man von HDR 1000 auf HDR 600 und HDR 400 schalten war jeweils schon ein krasser unterschied
Auf HDR 600 war schon krass aber auf HDR 400 war schon arg SDR like
HDR1000, HDR600, HDR400 modi entsprechen noch lange nicht einem reinen Peakbrightness-regler, sondern verändern gerne die eotf mit wie auch bei dem kürzlich genannten Philips qd-oled.
Muss nicht zwingend so sein, aber oftmals trifft es zu
Ein reiner Peakbrightness-Regler setzt ausschließlich die clippinggrenze herunter, lässt aber die eotf bis dahon korrekt folgen

Und natürlich verliert man bei 400nits max an HDR Effekt
.
Ergänzung ()

Kann man sich mit lilium auch den APL anzeigen oder Bereiche markieren und sich den durchschnittlichen Helligkeitswert für diesen Bereich errechen lassen?
 
Habe gestern integriertes HDR bei Black Ops 6 getestet (habe mal gehört dass der dort gut sein soll). Habs auch im Spiel kalibriert, beim Monitor HDR 1000 Modi genommen und muss gestehen, ich war begeistert vom Resultat. Vorallem in dunklen Szenen bei Rauch und Feuer oder bei Explosionen wurde ich geblendet dass es fast weh tat in den Augen. 😬 Oder wenn weiße Texte bei Dunkelheit erscheinen, die brennen ja förmlich. Auch am Tage waren die Kontraste und Farben bei Himmel/Sonne deutlich lebendiger. Hat mir schon sehr zugesagt, das Spielerlebnis war intensiver. Ich muss mal nach einer Liste suchen welche Spiele gutes internes HDR haben. Vielleicht ist was dabei worauf ich Lust habe.
 
  • Gefällt mir
Reaktionen: Slipknot79
Nutzt black ops 6 nicht das system level hgig oder ist das auf pc nicht der Fall?
https://www.hdrgamer.com/2024/11/call-of-duty-black-ops-6-hdr-settings.html

DEr Modern warfare Teil nutzte z.B. auf Konsolen das system level hgig setting, obwohl er Ingame HDR Slider bietet.
Allerdings wurden die Ingame Einstellungen vollständig ignoriert und waren dann auch nicht mehr aufrufbar (selbst nach Neuinstallation nicht).

edit: aah,ok

einfach und gut, ist bei hdr ja leider ne seltenheit
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Edgeraze
@Suspektan Das Video habe ich auch gesehen.
Das Spiel hat wirklich sehr schönes HDR. Kann ich jedem nur empfehlen. Sieht auf top HDR Geräten sicherlich noch geiler aus aber ich bin schon sehr zufrieden. Ist mein QD-OLED doch nicht unbrauchbar bei den richtigen Games. 😀
 
  • Gefällt mir
Reaktionen: Slipknot79
Suspektan schrieb:
In der von tectracks gezeigten Szene ist sie jedenfalls sicher nicht so hoch, zumal sie eh nicht über 200 nits liegen sollte, um eben die Highlights sich noch absetzen zu lassen.

Wie gesagt liegt es immer daran was halt eben grade auf dem Bild zu sehen ist.
Hatte doch schon das Beispiel genannt das Heller Schnee nunmal heller is als schattige Erde
und somit is die Grundhelligkeit dann jeweils auch anders je nach Scene eben.

Hier liegt die Grundhelligkeit bzw eben die größte sichtbare Fläche auf dem Bild zb bei 1000 - 2000 Nits
und dann haben wir halt noch das "Low Light" eben den Charakter im Bild also da wurde halt alles auf dem
Kopf gestellt ... is ja je nach Scene unterschiedlich wie gesagt


2.jpg


1.jpg




Nimmt man nun aber mal eine Dunkle Scene is die Grundhelligkeit eben ganz anders

Hier bei dieser Scene is die Grundhelligkeit eben 2.5 - 5 Nits :

Heatmap :

2.jpg


Normales Bild :

1.jpg



Und hier isse auch wieder anders :


11.jpg


33.jpg



33.jpg


44.jpg




Suspektan schrieb:
Wird ja eh für den abgedunkelten Raum gemastert, daher benötigt man an sich auch keine allzu hohe Grundhelligkeit in Filmen. (als Effekt einsetzen kann man es natürlich dennoch wie in der Matrix Szene)

Ja Filme is halt nochmal n Sonder Ding die werden eben anders als Games gemasert vom Film Studio
das passiert bei Games ja nich da wir ja im Game Menu selber Mastern können um eben zb die
Passenden Nits für das Gerät dort einzustellen und noch weitere HDR sachen.

Die helle Matrix Scene da da hat das viele Weiss nur 400 oder 600 Nits is halt so vom Filmemacher gemastert worden da was vor kurzem im AVS Forum ein Thema weil der G5 bei einem HDTVTest Video da seltsamerweise heller war als der Sony Reference Monitor
... anders eben als die Final Fantasy Scene die ich gepostet hatte die ja im Bereich
1000 - 2000 Nits bei dem vielen Weiss lag da man Games ja selber zuhause Mastern kann bei der
HDR Kalibrierung im Game Menu sowas hat ein Film ja nich.


Suspektan schrieb:
Ich rede von nativer HDR Wiedergabe mit korrektem eotf Verlauf und Midtones liegen eben nicht im hdr Peakbereich >200 nits.

kommt drauf an wieviel Nits das Gerät kann weil das verändert dann eben wie das Tone Mapping
arbeitet sah man ja auch bei meinem Cyberpunk Beispiel wo ich 3000 mit 400 Nit vergleichen hab etwas
das je mehr Nits anliegen desto mehr werden auch andere objekte heller dargestellt als bei einem 400 Nit gerät
sonst würde ja nur die Sonne heller werden eben das Highlight aber der Rest drum herrum nich
Aber auch das Variiert halt je nach Scene

Screenshot 2025-04-27 154256.png


Screenshot 2025-04-27 154412.png




Suspektan schrieb:
Ein reiner Peakhelligkeitsregler beeinflusst eben das Tonemapping in keiner Weise, sondern lässt ab dem eingestellten Grenzwert hart clippen.

Nun ich hab da bei meinem Beispiel oben mit 3000 nits vs 400 nits nix anderes verstellt als den Peak Bereich
und das Tone Mapping passt sich der neuen grenzen dann an und verteilt die einzelnen helligkeit
der objekte anders damit jedes objekt sich dann immer noch von einem andern was eine andere helligkeit
hat absetzen kann ... das würde man besser in meinem beispiel oben sehen wenn ich die Heatmap auf
400 nits drosseln könnte aber weniger als 1000 nits geht da leider nich

Suspektan schrieb:
Ich beziehe mich auf die genannte Szene
Da werden Wände und Gesichter mit abgedunkelt, was eben nicht bei rein reduzierter Peakhelligkeit auftreten würde.

hmm muss ich nacher mal testen

Aso ... nun weiss ich was du da meinst ... du meinst die Techtracks Star Treck Scene wo er 1000 vs 600
getestet hat ... du darst nich überlesen was ich 2 mal dazu geschrieben hatte und er auch im Video sagt
das es eben nich zu 100 % akkurat is

Ich sagte als ich die Star Treck Bilder gepostet hatte :

Screenshot 2025-04-27 155016.png



Also nicht überlesen !!! Das ist kein 100 % Akkurater Vergleich wie ich schon Gestern sagte !!!



Is aber bei HDTVTests Vergleichen genauso wenn man sich nun den 1.500 G4 und den 2.200 Nits G5 anschaut :

Screenshot 2025-04-27 155252.png


Auch da is das Gesicht halt dunkler :

Screenshot 2025-04-27 155332.png




Screenshot 2025-04-27 155507.png



Screenshot 2025-04-27 155615.png




Du vergisst halt das die Kamera die dieses Bild aufnimmt auch noch reinfuscht aber mehr Nits heisst halt heller
und die Kamera mit der man das Video / Bild Material erstellt passt sich dem hellsten licht an was zur folge
hat dass das Dunklere Gerät unnatürlich dunkel dargestellt wird.

Und das selbe was du da bei HDTVTests vergleich mit dem FIlm Pan gesehen hast sieht man eben auch
beim Techtracks vergleich mit der Star Trek Scene

Screenshot 2025-04-27 155934.png


Screenshot 2025-04-27 155507.png


Screenshot 2025-04-27 161944.png
--
Screenshot 2025-04-27 161941.png




Extreme wird es wenn man DTM On mit DTM Off gegentest :


Screenshot 2025-04-27 160112.png


Screenshot 2025-04-27 160341.png


Screenshot 2025-04-27 160403.png







Suspektan schrieb:
HDR1000, HDR600, HDR400 modi entsprechen noch lange nicht einem reinen Peakbrightness-regler, sondern verändern gerne die eotf mit wie auch bei dem kürzlich genannten Philips qd-oled.

Bei meinem Asus PG43 wars aber eine Nit Drosselung und keine EOTF anpassung

Screenshot 2025-04-27 160621.png


https://dlcdnets.asus.com/pub/ASUS/LCD Monitors/PG43UQ/PG43UQ_German.pdf?model=PG43UQ

Und 600 und besonders 400 sah halt echt schnöde aus im vergleich zu 1000 bei meinen Tests damals


Mein damaliger 43" PG hatte ähnliche Werte wie dieser 43" Gigabyte der 1 Jahr später rauskamm
der Gigabyte hatte das selbe AUO VA Panel + halt Quantum Dots das hatte mein PG43 damals nich
daneben dann mein aktueller 2020er 48" CX der halt so performt als wenn ich damals den
PG43 auf HDR 600 gestellt hatte is halt schon ein Downgrade für mich gewesen aber war halt
ein Trade Off .. Tausche Smearing und Ghosting vom PG43 VA gegen weniger helligkeit des 48" CX OLEDs

Screenshot 2025-04-27 162304.png
---
Screenshot 2025-04-27 162458.png




Mein nächster OLED TV wird dann aber definitiv heller als der 48" CX .. aktuell peile ich
den 42" G6 oder G7 an sofern er denn rüber wandert in die G Serie ansonsten halt den 48" G6 oder G7
ich brauch halt echt langsam wieder die helligkeit die ich damals beim PG43 hatte
dat vermiss ich halt seit Tag 1



Suspektan schrieb:
Und natürlich verliert man bei 400nits max an HDR Effekt

jepp absolut damit is man halt leider fast wieder im SDR Bereich es scheint da drausen aber Leute zu geben
die damit zufrieden sind

Ich dagegen finde das diese ganzen HDR 600 und HDR 400 Kisten den Ruf von HDR schädigen weil es eben
auch Leute gibt diese diese Kisten kaufen und denken : "man der kann ja HDR schalte ich mal ein muss ja voll fetzen " .. und dann merken sie das es sich kaum von SDR unterscheidet und darauf hin dann HDR scheisse finden und es gab damals sau viele von diesen schnöden HDR 400 und HDR 600 kisten teils Heute noch.
Und ich finde es schade das Leute mit diesen schnöden kisten ihr erstes HDR Erlebniss haben
bei mir wars damals der Asus PG43 mit HDR 1000 und da war ich echt buff ... die 700 - 800 Nits und das
krasse ABL bei meinem LG 48" CX dagegen haben mich dann was HDR angeht entäuscht
also mein 800 Nit OLED sieht so aus bei HDR Games als wenn ich damals beim PG 43 auf HDR 600 gestellt hab

Hohe Nit Werte sind nunmal wichtig für HDR aber du und ich wissen das nur leider einige andere
da drausen noch nich.


Suspektan schrieb:
Kann man sich mit lilium auch den APL anzeigen oder Bereiche markieren und sich den durchschnittlichen Helligkeitswert für diesen Bereich errechen lassen?


puh kein plan hab ich noch nich nachgeschaut

Man hat ja zumindest den AVG Wert aber halt ohne markierung

Screenshot 2025-04-27 161215.png









Edgeraze schrieb:
Ist mein QD-OLED doch nicht unbrauchbar bei den richtigen Games. 😀

Hat ja auch niemand behauptet .. sondern die QD-OLED Monitore performen halt nur in HDR etwas schlechter als die OLED Monitore und sehr viel schlechter als die QD-OLED und OLED High End TVs sie sind halt einfach nur am unteren ende zu finden und weniger am oberen Ende das heisst aber natürlich nicht das sie unbrauchbar sind und das hat ja auch niemand hier gesagt.

Und es gibt ja auch einige Leute da drausen dennen eben so 400 - 600 Nits reichen sonst würden sich diese Leute seit vielen jahren diese ganzen Krüppel HDR 400 - 600 LCDs ja nich kaufen und dir scheinen ja von so
400 - 1.000 Nits die augen schon zu brennen also dann is dieses untere ende der HDR Geräte halt genau dein Ding wie es aussieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slipknot79
Stagefire schrieb:
Wie gesagt liegt es immer daran was halt eben grade auf dem Bild zu sehen ist.
ich rede von dem Beispiel, welches tectracks zeigte
Stagefire schrieb:
Nun ich hab da bei meinem Beispiel oben mit 3000 nits vs 400 nits nix anderes verstellt als den Peak Bereich
und das Tone Mapping passt sich der neuen grenzen dann an und verteilt die einzelnen helligkeit
der objekte anders damit jedes objekt sich dann immer noch von einem andern was eine andere helligkeit
hat absetzen kann
ist dann eben kein reiner Peak-Limiter
Stagefire schrieb:
Also nicht überlesen !!! Das ist kein 100 % Akkurater Vergleich wie ich schon Gestern sagte !!!
Das habe ich nicht überlesen, aber der Vergleich vermittelt nun mal einen falschen Eindruck, weil er einen glauben lässt, geringere PEakhelligkeit ließe das gesamte Bild abdunkeln.
Das ist nicht mal 50% akkurat und eigentlich nur irreführend
Stagefire schrieb:
Extreme wird es wenn man DTM On mit DTM Off gegentest :
irrelevant, da damit eh von der eotf stark abgewichen wird.
Abgesehen davon ist DTM auf dem G4 ja nahezu wirkungslos, bei Aktivierung bleibt der üblcihe Effekt irgendwie aus bei ihm?
Im Kinomode des G4 verhält es sich mit DTM deutlich anders, da hat lg das Tonemapping wohl deutlich geändert.
Erinnere mich auch an einen Besitzer des G3, welcher auf den G4 wechselte und von FMM + DTM extrem enttäuscht war, weil nicht mehr wie beim G3 das Bild aufgehellt wurde.
Stagefire schrieb:
bei meinem Asus PG43 wars aber eine Nit Drosselung und keine EOTF anpassung
das geht aus dem Satz nicht hervor, Anpassung kann mehr bedeuten als reine Begrenzung
Stagefire schrieb:
Ich dagegen finde das diese ganzen HDR 600 und HDR 400 Kisten den Ruf von HDR schädigen weil es eben
auch Leute gibt diese diese Kisten kaufen und denken : "man der kann ja HDR schalte ich mal ein muss ja voll fetzen "
Bin mit meinem 400 nits full white/ 600 nits Peak RGB oled Notebook display sehr zufrieden, mein panasonic woled mit 170 nits Vollweiß/ 850 nits Peak bleibt da i.V. chancenlos.
Die farbhelligkeit liegt da im 10% Fenster nämlich letztlich nur bei um die 350 nits und das merkt man bei farbintensiven Szenen dem TV auch an, zudem neigt dieses woled rot grdstzl. zum Drift in aufgehelltes Fuchsia und Gelbpeaks können sich in grünliche verfärben. (nein, ist nicht kalibrierbar)
Die Spektralcharakteristik von woled war nie sonderlich überzeugend, da die Rot/ grün Spektralbänder zu undefiniert sind und durch zu hohen Gelbanteil verunreinigt werden.
Screenshot (179).png


dagegen der HX 310 Referenzmonitor
Screenshot (178).png

und hier auf dem rgb amoled Panel
Screenshot (184).png


WIrd leider oft unterschätzt

Wäre die Bildqualität meines panasonic woled auf dem Niveau des rgb amoled, hätte ich keinen Bedarf zum Wechseln auf einen qd-oled gehabt.
Stagefire schrieb:
Auch da is das Gesicht halt dunkler :
ist nicht annähernd vergleichbar mit den Beispielen aus der von tectracks gezeigten Szene
Wobei es nicht ganz ausgeschlossen ist, dass aufgrund des recht hohen APLs in der Szene der ABL eingreift und auf dem G4 etwas abdunkelt

Hat aber mit der Szene von tectracks nichts gemeinsam

Hier ein Vergleich eines non-mla Woled mit dem HX310 (fähig zu 1000 nits Vollbildweiß) bei korrektem EOTF Tracking (links) und falsch eingestelltem Gamemode (rechts)

Screenshot (189).png

Screenshot (187).png


Ist von sich aus die Grundhelligkeit identisch, lässt sich aber immer noch auf dem woled anheben, wenn man möchte, weicht dann aber stärker von der Vorgabe ab.

Das dunkler dargestellte Gesicht basiert auch hier nicht auf einer Limitierung durch das non-mla Woled Panel, der 1000 nits Mastering Monitor stellt die Szene auch nicht heller dar, nur weil er dazu fähig wäre.

Stagefire schrieb:
Is aber bei HDTVTests Vergleichen genauso wenn man sich nun den 1.500 G4 und den 2.200 Nits G5 anschaut :
weil die szene 600-800 nits auf großer Fläche abruft und der G4 bei 100% Vollweiß nur 230 nits in HDR erreicht bei (Testfenstern, real sind es mehr) , während der G5 auf eher 400 kommen sollte.
Daher sehr unpassendes Beispiel, weil hier eben die Grundghelligkeit extrem hoch liegt, was bei HDR Inhalten die Ausnahme darstellt und auch nicht seinem Zweck entspricht.

Stagefire schrieb:
Du vergisst halt das die Kamera die dieses Bild aufnimmt auch noch reinfuscht aber mehr Nits heisst halt heller
und die Kamera mit der man das Video / Bild Material erstellt passt sich dem hellsten licht an was zur folge
hat dass das Dunklere Gerät unnatürlich dunkel dargestellt wird.
nein, vergesse ich nicht und man kann bzw. sollte die Blende auch fix einstellen, um die Problematik zu verhindern.
Der Grund ist bei tectracks auch nicht eine Kameraeinstellung, sondern dass er mit irgendeiner HLG Formatierung herumgepfuscht hat, um den Effekt zu erreichen, statt einen reinen Peakbegrenzer einzusetzen. (Vermutlich hat er auch nicht die Möglichkeiten dazu bzw. kennt sie nicht)
Dann wäre aber die rein verminderte Peakhelligkeit auf den Fotos nur unwesentlich sichtbar geworden
Ergänzung ()

Edgeraze schrieb:
Das Video habe ich auch gesehen.
Das Spiel hat wirklich sehr schönes HDR. Kann ich jedem nur empfehlen. Sieht auf top HDR Geräten sicherlich noch geiler aus aber ich bin schon sehr zufrieden. Ist mein QD-OLED doch nicht unbrauchbar bei den richtigen Games. 😀
Dann frage ich mich aber, warum der 1000 nits Mode zuvor so stark die Farben verblasste und die Gesamthelligkeit reduzierte, nun aber nicht?
 
Zuletzt bearbeitet:
Suspektan schrieb:
ist dann eben kein reiner Peak-Limiter

nunja wenn ich die Nits von 1.000 Nits auf 600 oder 400 Nits drosseln kann is das schon ein
Peak Regler würde ich sagen da man damit regelt das die Peak Nits des Gerätes eben nich mehr bis 1000 gehen sondern nur noch bis 600 oder 400 nits

Suspektan schrieb:
Das habe ich nicht überlesen, aber der Vergleich vermittelt nun mal einen falschen Eindruck, weil er einen glauben lässt, geringere PEakhelligkeit ließe das gesamte Bild abdunkeln.
Das ist nicht mal 50% akkurat und eigentlich nur irreführend

okay ... alles was es dazu zu sagen gab hatte ich schon gesagt und gezeigt



Suspektan schrieb:
Im Kinomode des G4 verhält es sich mit DTM deutlich anders, da hat lg das Tonemapping wohl deutlich geändert.

Und beim G5 hat sich das DTM auch verbessert genau darum geht es in dem Vergleich bei dem Bereich im Video von Techtracks sagt er auch in dem Part des Videos das er vom DTM des G5 positiv überrascht war

Suspektan schrieb:
Wäre die Bildqualität meines panasonic woled auf dem Niveau des rgb amoled, hätte ich keinen Bedarf zum Wechseln auf einen qd-oled gehabt.

Da weiss ich grad ehrlich gesagt nich was das nun mit 1000 nits und 400 nits und 600 nits und 2.000 nits
zu tun hat.

Also mir ging es da nich um die Vorzüge der Panel Technik sondern nur um die Nits


Suspektan schrieb:
ist nicht annähernd vergleichbar mit den Beispielen aus der von tectracks gezeigten Szene

joa ich merk schon wir kommen da wohl leider nich weiter und scheinen da etwas an einander vorbei zu reden
:)



Suspektan schrieb:
nein, vergesse ich nicht und man kann bzw. sollte die Blende auch fix einstellen, um die Problematik zu verhindern.
Der Grund ist bei tectracks auch nicht eine Kameraeinstellung, sondern dass er mit irgendeiner HLG Formatierung herumgepfuscht hat, um den Effekt zu erreichen, statt einen reinen Peakbegrenzer einzusetzen. (Vermutlich hat er auch nicht die Möglichkeiten dazu bzw. kennt sie nicht)

ah okay ... also nun soll HLG schuld sein was ein eigener HDR Mode is und denkst also er testet da HLG gegen HDR oder sowas.... nunja ... wie dem auch sei ... ich denke wir werden da halt nich weiter kommen
da die Meinungen von uns zu unterschiedlich und zu festgefahren sind.

Fakt für mich is jedenfalls ( und das hab ich halt damals live bei mir im Wohnzimmer gesehen )
das so eine Scene zb hier :

Screenshot 2025-04-27 203830.png


Sah auf meinem HDR 1000 Gerät damals besser aus als auf meinem aktuellen 700 - 800 nit Gerät
wo zusätzlich das ABL nochmal extra krass reingrätscht und mir noch mehr Nis klaut als auch beim selben
HDR 1000 Gerät wenn ich da auf HDR 400 oder HDR 600 runter gegangen bin

Ich kann leider nun bei Battlefield 5 nichmehr schauen wie da die Liliums Heatmap aussieht da EA Reshade nich mehr zulässt seit anfang 2024 ..... aber das weiss des Schnees war damals beim HDR 1000 Gerät gut 30- 40 % heller als nun beim 700 - 800 nit Gerät also beim 700 - 800 Nit Gerät bekommt das Weiss des Schnees weniger Nits ab als noch damals beim HDR 1000 Gerät .. und somit is auch die Grund Helligkeit dieser Scene beim
700 - 800 Nit Gerät niedriger als beim HDR 1000 Gerät weil das Weiss ja da die meiste Fläche einnimmt
in dieser Scene wäre das da in dieser Scenen dann auch der Schnee die Grundhelligkeit für mich

Hatte ja im Februar 2020 den HDR 1000 Monitor bei mir der nur ganz wenig ABL hatte und dann im Juni 2020 den 700 - 800 Nit OLED und hatte das daher noch gut in erinnerung

Und man kann meine Entäuschung im HWLuxx LG OLED TV als Monitor Thread auch lesen da hab ich
ja im Juni 2020 berichtet als ich gewechselt bin

Wie man es dreht und wendet .. für meine Augen ist ein 400 oder 600 Nit Gerät massiv dunkler als ein
1000 Nit Gerät was kaum ABL hat und das eben nich nur bei Highlights sondern auch allgemein
und mein nächster wird dann wohl ein 1.500 Nit Gerät oder mehr je nach dem wie stark die
Helligkeit des 48" / 42" G6 bzw G7 steigt im vergleich zu meinem aktuellen 700 - 800 Nit 2020er LG 48" CX OLED so eine 800 nit Krücke wo dann das ABL noch zusätzlich krass was klaut tuh ich mir dann zukünftig jedenfalls nich mehr an das war für mich nur ein Trade off den ich für eine gewisse Zeit damals 2020 eingegangen bin aber diese Zeit neigt sich nun dem Ende


Ich sage nich das alle Menschen auf der Erde so empfinden wie ich aber das ich das so empfinde
gibt da drausen ja Menschen denen die Augen schon bei 400 Nits brennen warum auch immer.


Und bei Film Content isses auch entscheidet ob der mit 600 Nits , 1000 Nits oder 4000 nits oder 10.000 nits
gemastert wurde .. je nach dem geht der eine TV damit anders um als der andere TV bzw schafft es dann eben der mit den weniger Nits nicht mehr mit dem der mehr Nits hat mitzuhalten aber das gilt Natürlich auch für HDR Games wo man selbst das Nit Cap einstellt und das Game damit selbst Mastert.


1000 Nit Content : ( Content von der Spears & Munsil HDR Benchmark Disc )


Screenshot 2025-04-27 222132.png


Screenshot 2025-04-27 221449.png



4000 nit Content :

Screenshot 2025-04-27 222138.png


Screenshot 2025-04-27 221457.png



Screenshot 2025-04-27 222214.png


Screenshot 2025-04-27 222221.png





Screenshot 2025-04-27 222311.png




Und bei Games kann man den Nit Cap Slider ja wie gesagt selbst setzen und sagen das Game soll nun
zb 700 nit Content sein oder 2000 Nit Content oder gar 10.000 Nit Content sein sowie alles was so dazwischen is bei HDR Games is das alles möglich anders als bei HDR Filmen die eben fest Gemastert wurden was bei HDR Games ja nich der Fall is.

Beispiel das Indiana Jones Game :

1.jpg


2.jpg




Nutz ich nun 2 Geräte das eine kann zb 2000 nits und das andere 800 Nits und setz das Game Nit Cap auf
800 Nits sind beide gleich aber setz ich das Nit cap auf 2000 Nits zieht eben das 2000 nit Gerät davon
und zwar nich nur bei den Highlights



Aber ja dann lass uns da mal feierabend machen











LGs größere 2025er C5 Mid Tier sind nun ziemlich auf dem Level des 2023er G3 High End und das ganz ohne MLA


HDR :

Screenshot 2025-04-27 214612.png


Screenshot 2025-04-27 214837.png




SDR :


Screenshot 2025-04-27 221101.png



Screenshot 2025-04-27 220659.png



Screenshot 2025-04-27 220919.png


Screenshot 2025-04-27 220848.png
 
Zuletzt bearbeitet:
Suspektan schrieb:
Dann frage ich mich aber, warum der 1000 nits Mode zuvor so stark die Farben verblasste und die Gesamthelligkeit reduzierte, nun aber nicht?

Das frage ich mich auch. Aufgefallen war mir das bisher nur so extrem beim MSFS24 bei Tag und Kingdom Come welches kein eigenes HDR haben. Mag es vllt daran liegen (RTX-HDR)?
Bei BO6 mit internem HDR ist das überhaupt nicht mehr so, kein bisschen. 🤔 Habe jetzt die Story und viel Multiplayer im HDR Mode gespielt und merkte absolut keinen Unterschied zu ohne HDR zwecks Helligkeit, nur dass die Kontraste viel geiler aussahen. Wirkt alles soviel lebendiger, saftiger. Macht echt Spaß.

Btw. Habe gerade aus Neugier auch bei Cyberpunk ausprobiert, da wird ebenfalls nicht wirklich abgedunkelt und Farben verblasst. Ich vermute fast schon dass es wirklich am RTX-HDR lag. Hmm...
 
Zuletzt bearbeitet:
Werd Heute mal Last of Us 2 anfangen zu zocken .. das Game geht auch rauf bis auf 10.000 Nits


Nit Cap ganz runter auf Minus 10 gesetzt im Game Menu :

1.jpg

111.jpg

11.jpg


Screenshot 2025-04-28 023756.png




Nit Cap in der Mitte : ( für mein 800 Nit OLED muss ich also noch n tacken unter 0 gehen damits passt )

2.jpg


222.jpg


22.jpg


Screenshot 2025-04-28 023651.png



Nit Cap auf Max :

3.jpg


333.jpg


33.jpg


Screenshot 2025-04-28 023705.png




Logischerweise macht natürlich ein 3000 oder gar 10.000 Nit Cap bei einem 800 Nit Gerät kein Sinn
aber diese Bilder zeigen dennoch genau das auf wovon ich die ganze Zeit spreche
bei einem Gerät das mehr Nits kann wandert eben mehr nach oben und nicht nur die Highlights
was in dem Beispiel hier ja nur die Sonne wäre aber hier werden eben auch die Bäume und der Himmel
und die Strommasten heller

Das is eben der Unterschied zwischen HDR Film und HDR Game .. vielen denken weil etwas so im
Film Bereich is isses auch im Game Bereich so aber ne isses eben nich

Und bedenkt bei den Original Bildern handelt es sich um .jxr HDR Bilder die ich in SDR Bilder umgewandelt habe damit ich sie hier hochladen kann ... wenn man sich das echte HDR Bild mit dem Windows Foto Viewer anschaut der .jrx HDR Bilder auch korrekt in HDR wiedergeben kann sieht das besser aus als hier auf diesen
in SDR umgewandelten Bildern und eben nich so krass überhellt


Habs mal abfotografiert .... links das original .jxr HDR Bild und rechts das in SDR umgewandelte


IMG_20250428_015448627_HDR.jpg




aber durch die SDR Handy Kamera geht natürlich das HDR halt auch verloren und alles wirkt da einfach nur überleuchtet aber so isses in real nich .... aber man sieht zumindest
das es da ein unterschied gibt wenn man das HDR Bild eben in HDR schaut und nich in SDR
aber ich muss das leider in SDR umwandeln um es hier hochladen zu können


The Last of Us 2 scheint übrigens recht gutes HDR zu haben hab aber erst grade eben so 5 min reingeschaut
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slipknot79
Sehr interessant gerade die Erfahrung mit HDR 1000 vs HDR 400 am Monitor. Habe hierfür rauf und runter das Benchmark Video von Cyberpunkt laufen lassen und später in-game getestet. Habe hierfür auch die HDR Einstellungen im Spiel beachtet. Ohne Frage schaut HDR 1000 Mode deutlich besser, realistischer und lebendiger aus ggü. True Black (HDR 400) und SDR. Was für Kontraste, wow. Und absolut keine Einbußen bei der Helligkeit ggü. SDR. Ich bin mir sicher es lag am RTX-HDR vor paar Tagen. Schade dass MSFS24 und Kingdom Come kein eigenes HDR haben, so hätte ich beides direkt testen können.

Komme langsam echt auf den Geschmack. Gefällt mir saugut wenn die Spiele eigenes HDR haben und es nicht verhunzt ist. Ich weiß dass Cyberpunk einige Probleme hat bei HDR (black level, merkt man beim Benchmark in der Kneipe schon) aber insgesamt doch nicht schlecht ist. Man kann da mit Tone Mapping oder Shader einiges machen aber gut, werde das Game eh net mehr zocken. :D

Fazit: Haben in Zukunft Spiele eigenes gutes HDR, werde ich es definitiv nutzen! Ich finde es saugeil! RTX-HDR hat mich wiederrum gar nicht überzeugt und ich werde es auch nicht mehr nutzen! Schluckt auch übertrieben viel Leistung finde ich.

@Stagefire Schade dass ich TLOU 1+2 schon auf der PS5 damals gezockt habe, so wäre das sicherlich ein geiles Erlebnis gewesen. :) Ein Meisterwerk von Spiel btw. 👍 Aber mal sehen, vllt finde ich Zeit und zocke es nochmal durch. PS5 war ne Krücke mit 30fps. Grafisch aber sehr nice, am PC mit QD-OLED jetzt wird das aber ne andere Liga sicherlich.
 
  • Gefällt mir
Reaktionen: Stagefire
Edgeraze schrieb:
Ohne Frage schaut HDR 1000 Mode deutlich besser, realistischer und lebendiger aus ggü. True Black (HDR 400) und SDR.

Warte mal ab wenn du ein richtigen HDR 1000 Bildschirm vor den Augen hast bzw ein OLED oder QD-OLED
der eben auch bei 10 % und 25 % und 50 % Window noch ordenliche nit Werte hat das is dann nochmal n
ganz anderes level als wenn man halt nur bei 2 % Window die 1.000 nits hat wie bei deinem QD-OLED Monitor

Der LG G5 High End OLED TV und der S95F High End QD-OLED TV schaffen bei
25 % Window noch die 1.000 Nits und dein QD-OLED Monitor liegt bei 25 % Window bei nur noch 370 Nits das sind halt auch schon Welten

Screenshot 2025-04-28 024639.png


https://www.avforums.com/reviews/lg-g5-oled65g5-4k-oled-tv-review.22592/


Screenshot 2025-04-28 024930.png



https://www.avforums.com/reviews/samsung-s95f-qe77s95f-77-inch-qd-oled-tv-review.22578/


Und selbst der Mid Tier C5 OLED TV kommt da auf knapp 1.000

Screenshot 2025-04-27 214612.png




Deine Knülle dagegen :


Screenshot 2025-04-28 024754.png


https://www.rtings.com/monitor/reviews/dell/alienware-aw2725q



Edgeraze schrieb:
Ich bin mir sicher es lag am RTX-HDR vor paar Tagen.

RTX HDR kann auch Gutes HDR wenn man es eben gut und passend einstellt und ein gutes HDR Gerät
sein eigen nennt ... aber dazu hab ich ja schon mehr als genug geschrieben da würde ich mich nun nur noch
wiederholen.


Edgeraze schrieb:
Schade dass MSFS24 und Kingdom Come kein eigenes HDR haben, so hätte ich beides direkt testen können.

Gibt ja noch sehr viele andere Nativ HDR Games wo du gegentesten kannst


Edgeraze schrieb:
Komme langsam echt auf den Geschmack.

Bei mir hatte es damals im Febraur 2020 gleich an Tag 1 geknallt und ich hatte ja gleich ein HDR 1000 Gerät
das noch bei 100 % Window seine 800 Nits gepackt hat dat is halt nochmal was anderes als ein
OLED oder QD-OLED wo das ABL halt krass reinscheisst .. aber zumindest werden ja nun die
High End OLED und QD-OLED TVs besser und kommen da nun schon nah in den Bereich den ich damals
im Februar 2020 schon mit meinem HDR 1000 VA erlebt hatte

Edgeraze schrieb:
Gefällt mir saugut wenn die Spiele eigenes HDR haben und es nicht verhunzt ist. Ich weiß dass Cyberpunk einige Probleme hat bei HDR (black level, merkt man beim Benchmark in der Kneipe schon) aber insgesamt doch nicht schlecht ist.

Alles selbst Fixbar wie schon 2 oder 3 oder 4 mal geschrieben .. Black Point Slider regelt und ist in
wenigen Sekunden fixbar.


Edgeraze schrieb:
.@Stagefire Schade dass ich TLOU 1+2 schon auf der PS5 damals gezockt habe, so wäre das sicherlich ein geiles Erlebnis gewesen. :) Ein Meisterwerk von Spiel btw. 👍

The Last of Us 1 hatte ich damals auch auf der PS3 gezockt und mich übers kantenflimmern und schlechte auflösung und Gamepad steuerung damals geärgert weil war halt nur PS3 bin halt seit anfang der 90ger
ein PCler .... und habs dann vor 2 oder 3 Jahren oder wann die PC Version rauskamm das 2te mal durchgezockt und dann die Serie geschaut.

The Last of Us 2 hab ich nich auf der PS gezockt dafür halt nun auf dem PC und wenn ich damit durch bin
schau ich Staffel 2 der Serie.

Find beides echt cool das Game is geil aber die Serie dazu auch

Edgeraze schrieb:
PS5 war ne Krücke mit 30fps.

Jup ... bin mit meiner RTX 4090 + 2018er Intel 9900K bei 118 FPS ( weil 118 FPS cap ) mit max Settings bisher
aber halt auch mit 4K DLSS auf Quality und Frame Gen spart auch halt Strom und hab eben erst 5 min ins Game reingeschaut wegen HDR Test und werde erst Morgen dann richtig loslegen
 
Zuletzt bearbeitet:
@Stagefire Hast du es gut, dass du den zweiten Teil noch nicht gezockt hast. Das Spiel ist atemberaubend von vorne bis hinten! Habe die Serie auch schon durchgesuchtet. :D

Übrigens wegen deinen Links zu den Tests finde ich den einen Satz vin avforums sehr interessant:

"It's important to note that differences in peak nits values may not always be perceptible due to the way our eyes work. Even substantial differences on paper may not be visible or noticeable, highlighting the fact that the brightest results aren’t always the best."

Ich denke irgendwo wird auch die Grenze sein. Natürlich werden sie die Kuh weiter melken und immer krassere Brightness Peaks erreichen aber wird das menschliche Auge auch alles wahrnehmen? Änliche Geschichte wie mit den Hz. Der eine merkt/spürt den Unterschied zwischen 144 und 240 fps, der andere nicht. Ich zB. nicht. :) Ab 120 bereits flacht die Wahrnehmung bei mir stark ab.
 
Zuletzt bearbeitet:
Die TLOU Teile liefen auf der PS5 doch nicht nur mit 30fps.
Edgeraze schrieb:
Natürlich werden sie die Kuh weiter melken und immer krassere Brightness Peaks erreichen aber wird das menschliche Auge auch alles wahrnehmen?
Den Unterschied von 1000 zu 2000 oder 2000 zu 3000 wird man wahrnehmen, von 850 zu 1000 oder 2000 zu 2400 eher weniger..
HDR erlaubt von sich aus bis 10000 nits max Peak (maximale Bitstufe = 1023) und daher wird wohl auch bis dahin entwickelt, mehr kann der Content eh nicht abfordern.
 
Edgeraze schrieb:
Übrigens wegen deinen Links zu den Tests finde ich den einen Satz vin avforums sehr interessant:

Screenshot 2025-04-28 120254.png



Den unterschied von 0 und 1 Nit oder 5 Nit nehmen wir krass war

Den Unterschied von 5 zu 500 auch

500 auf 1000 wird teils schon dezenter relativ zu der Steigung von 0 auf 500 gesehen

1000 auf 2000 auch nochmal

usw

Und 2000 nits is auch nich doppelt so hell für uns Menschen wie 1000 nits
Und 10.000 Nits is auch nicht doppelt so hell für uns Menschen wie 5.000 nits

Da wie ja der AVS Reviewer sagt unsere Augen eben anders arbeiten da gabs son Spezielles Wort für
das diesem Umstand beschreibt aber ich weiss grad nich mehr wie es heisst



Es gibt schon Geräte die in den 10.000 Nit Bereich gehen .. glaub das war zb son über 100" TCL Ding


Screenshot 2025-04-28 121231.png






https://www.flatpanelshd.com/news.php?subaction=showfull&id=1705097855


Auch die MicroOLED VR Brillen wandern langsam dahin ( bei VR Brillen gehen aber auch ne Menge nits verloren )

Screenshot 2025-04-28 121309.png


https://www.flatpanelshd.com/news.php?subaction=showfull&id=1715941173



Und das machen die auch nich nur aus Spass .. aktuell haben wir das Rennen um 4.000 Nits im normalen
TV Bereich da es eben da drausen auch Content gibt der 4.000 Nits unterstüzt aber auch 10.000 nits
Wie eben zb The Last of Us 2 , Indiana Jones , Diablo 4 usw aber auch Filme.

Die 2025er LG Display High End OLED Panels und Samsung Display High End QD-OLEDs
kommen bei einem kleinen weissen Fenster für kurze Zeit auf 4.000 Nits


Screenshot 2025-04-28 121821.png



Bricht aber halt auf den 330 Nit Bereich bei 100 % Window ein


HDR10 , HDR10+ , Dolby Vision sind auch alles bis zu 10.000 Nits Spezifiziert


Und auch unsere Welt drausen hat eben mehr als 400 Nits oder 1000 Nits

Hier mal ne "Heatmap" ohne Farbliche Darstellung dafür aber mit Zahlen :
Screenshot 2025-01-16 215022.png




Edgeraze schrieb:
Ich denke irgendwo wird auch die Grenze sein.

Aktuell bei 10.000 nits bei HDR10 , HDR10+ , Dolby Vision

Screenshot 2025-04-28 122808.png


https://en.wikipedia.org/wiki/HDR10


Edgeraze schrieb:
Natürlich werden sie die Kuh weiter melken und immer krassere Brightness Peaks erreichen aber wird das menschliche Auge auch alles wahrnehmen?

mehr als du denkst :

Ne Kinder Fahrrad Klingel hat mal eben 3.325 Nits

Screenshot 2025-04-28 122312.png



Ne Lila Blume hat 530 Nits :

Screenshot 2025-04-28 122357.png





HDR-Projectors-Fig1-800.jpg



Klar nicht jeder brauch 10.000 Nits .. ich wäre halt mit 1000 Nits bei 50 % Window auch erstmal zufrieden

Und bei OLED und QD-OLED isses auch nochmal ein Sonderfall da das ABL dort eben besonders krass reinscheisst ... und steigt bei OLED und QD-OLED die 1-10 % Window Helligkeit steigt eben auch die 25 und 50 und 75 % Window helligkeit .. OLED und QD-OLED hängt ja weiterhin hinter LCD her in den höheren % Window Bereichen ... mein 43" Asus PG43 VA Monitor mit HDR 1000 den ich damals 2020 hatte is ja immernoch in den größeren Prozent Window Bereichen heller als ein 2025er High End OLED TV

Es geht also nich nur um den 2 % Peak Bereich oder nur um den 10 % Bereich auch die anderen Bereiche sind ja wichtig damit eben eine Sonnige Schnee Landschafft zb auch auch mal realistischer abgebildet werden kann
und eben nich nur mit 200 Nits oder so wegen dem krassen ABL den Sonniger Schnee hat halt im Realen leben mehr als 200 Nits

Also nich immer nur den 2-10 % Peak Bereichen beachten sondern eben auch die anderen Bereiche
wie eben 25 % und 50 % Window

Is ja schön wenn man ein Gerät hat das ne kleine mini kerze mit krassen 10.000 nits darstellen kann aber es is dann nich so schön wenn es dann schnee nur noch mit 200 Nits darstellen kann wegen dem krassen ABL
also nich nur auf den kleinen Peak Bereichen oben schauen sondern auf das gesamtbild.


Is ja schön das du halt mit 400 Nits zufrieden bist nur mach nich den Fehler zu denken das alle so denken wie du.

Ich denke damit is dann auch alles gesagt was es dazu zu sagen gab ... und ehrlich gesagt
vergeht mir hier auch langsam die Lust hier meine Zeit und Energy reinzustecken
weil ich das Gefühl hab ich rede gegen eine Wand.

Daher mach ich nun fürs erste hier mal wieder Feierabend
 
Zuletzt bearbeitet:
Suspektan schrieb:
Die TLOU Teile liefen auf der PS5 doch nicht nur mit 30fps.

Dann habe ich mich wohl vertan und es auf der PS4 gespielt. Ich weiß dass später ein Update für 60 fps kam. Müsste die PS4 Pro oder direkt PS5 gewesen sein.
 
So, wieder eine zeitlang HDR eingeschaltet gehabt (nur in MSFS2024) mit RTX HDR und mir geht das nervige Geflacker (im Cockpit beim Umherschauen, tw. auch draussen bei hellen Flächen) schon wieder auf den Senkel. Mein Monitor (G3223Q) ist und bleibt wohl einfach ungeeignet für HDR. Ohne HDR wirkt das Bild einfach viel ruhiger.
 
Stagefire schrieb:
Da wie ja der AVS Reviewer sagt unsere Augen eben anders arbeiten da gabs son Spezielles Wort für
das diesem Umstand beschreibt aber ich weiss grad nich mehr wie es heisst


Habs jetzt nicht recherchiert, aber vermute mal der Zusammenhang wird logarithmisch sein. 🧌
Wie beim Gayhör.
 
  • Gefällt mir
Reaktionen: Stagefire
Slipknot79 schrieb:
Habs jetzt nicht recherchiert, aber vermute mal der Zusammenhang wird logarithmisch sein. 🧌

Jepp das war das Wort was ich gesucht hatte ... Danke :daumen:

Screenshot 2025-04-28 225919.png



Screenshot 2025-04-28 230107.png



Screenshot 2025-04-28 230247.png




Deswegen sind eben 4.000 oder 10.000 nits garnich so hell wie viele Leute denken



Wie schonmal gesagt ist auch hohe Helligkeit für Gutes HDR wichtig und 400 oder 600 Nits sind da halt n Witz
und hohe Weisshelligkeit heisst auch hohe Farbhelligkeit

Screenshot 2025-04-28 231217.png


Screenshot 2025-04-28 231210.png



https://www.burosch.de/tv-features/874-hdr-das-geheimnis-ist-das-licht.html



So aber ich wollte mich hier ja nun zurück ziehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slipknot79
Stagefire schrieb:
Ich denke damit is dann auch alles gesagt was es dazu zu sagen gab ... und ehrlich gesagt
vergeht mir hier auch langsam die Lust hier meine Zeit und Energy reinzustecken
weil ich das Gefühl hab ich rede gegen eine Wand.

Daher mach ich nun fürs erste hier mal wieder Feierabend

Ich verstehe nicht wieso du dich so angegriffen fühlst. ;) Ich habe doch nie irgend was widersprochen, nur was in Frage gestellt. Du unterstellst mir direkt ich wäre der passende Kunde für 400 Nits Material. Ich habe doch nichts anderes zum Vergleich. :D Ich glaube wohl, dass es noch heftiger mit 1000 Nits in einem 25% oder 50% Window aussieht. Jedoch glaube ich auch, dass es von Mensch zu Mensch unterschiedlich ist mit den Eindrücken und Wahrnehmungen.

Ich spiele jetzt Cyberpunk in HDR 1000 Mode (habe bei den Settings mich an GamingTech orientiert), und mir fällt die Kinnlade immer wieder runter wie krass der Unterschied zu SDR doch ist. Tone Mapping auf 1 hat auch das Gesamterlebnis völlig verändert. Alles wirkt dermaßen intensiv, die strahlenden Leinwände auf den Straßen in der Dunkelheit sind einfach der Burner. Und die black levels gehen jetzt absolut in Ordnung. Habe an sich keine Lust auf das Spiel weil schon durchgespielt, aber weil das grafisch so eine Granate ist in Path Tracing und dazu noch HDR, fahre ich gerade einfach stundenlang rum und genieße einfach den Ausblick. :D

Früher oder später gönne ich mir sicherlich auch eine aktuelle LG Granate mit Nits bis zum Abwinken wenn einer unserer beiden TV's mal den Geist aufgibt, solange bin ich aktuell auch mit meinem QD-OLED sehr zufrieden und einfach nur überwältigt vom Bild. Liegt generell auch immer noch am Q´D-OLED selbst, komme ja von der LCD Welt. Ist für mich eine neue Erfahrung, habe früher nie Wert darauf gelegt bzw. kannte es nur von meiner PS5 an meinem Sony XH90. Sah halt fein aus, aber kein Vergleich zu der Erfahrung aktuell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stagefire
Zurück
Oben