8 Bit HDR ist kein echtes HDR? Was soll ich Wählen?

Experte18

Lieutenant
Registriert
Okt. 2008
Beiträge
951
Hallo sind das die richtigen Einstellungen für mein Fernseher? Wenn ich im Nvidia Treiber keine Einstellungen vornehme, habe ich nur 8 Bit HDR. Welche Einstellungen für den Fernseher würdet ihr verwenden? Es gibt im Nvidia Treiber mehrere Optionen. Ich könnte auch nur 10 Bit einstellen. Aber 12 bit ist besser ne?

https://www.philips.de/c-p/75PUS6754_12/6700-series-4k-uhd-led-smart-tv-mit-3-seitigem-ambilight
hdrc.png
dolby.png
 
Also ich würde 10 bit RGB wählen , sollte die beste qualität sein.
 
  • Gefällt mir
Reaktionen: Terrier
Was du wählen sollst, naja das beste, was die GK her gibt, wenn die nur 10bit kann und der Fernseher 12bit, kannst du ja nicht auf 12bit stellen.

Wenn dein Auto nur 180 km/h spitze schafft, und deine Reifen bis 240km/h zugelassen sind, dann wird das Auto auch nicht schneller dadurch.
 
  • Gefällt mir
Reaktionen: Terrier und lazsniper
In deinem Bid steht doch beim Treiber "12 bpc" und beim Fernseher "Bittiefe 12-Bit".
Scheinbar können beide 12 Bit.

Jetzt brauchst du nur noch 12Bit HDR Videomaterial.
 
  • Gefällt mir
Reaktionen: Terrier
Na dann besorg dir mal Testgradienten mit 12 Bit und vergleiche (habe weiter unten noch einen Link dazu gepostet). Ich könnte mir gut vorstellen, dass der Windows-Desktop eh nicht mehr als 10 Bit kann, genauso wie er nur 8 Bit im SDR Modus kann. Mehr konnte man bei SDR nur mit entsprechenden Programmen mit spezifischem GPU Treiber Support herausholen und wird vom normalen Anwender eh nicht genutzt. Windows selbst spuckt ja auch zum Beispiel kein Dolby Vision aus.

Und da dein TV nur 18G TMDS kann an den HDMI Eingängen, kostet dich jedes bisschen mehr an Farbtiefe als 8 Bit stattdessen Farbauflösung / Chroma, wie zB das aktuell ausgewählte 422 und Limited Range. Die Nachteile vom Chroma-Subsampling kann man zB sehr gut in Testbildern sehen https://www.rtings.com/tv/learn/chroma-subsampling.

Also schau was dir störend auffällt und was Vorteile bringt und bleibe dann bei diesen Einstellungen.

Gerade an einem so limitierten HDMI-Eingäng vermute ich dass 8 Bit HDR mit Dithering aber RGB mit Full Range das beste sein wird, aber das könnte durchaus gerätespezifisch und anwendungsspezifisch sein, also -> testen.
 
Zuletzt bearbeitet: (Leichte Ergeänzungen vom Text)
  • Gefällt mir
Reaktionen: Terrier
Hallo danke für die antworten. Wenn ich RGB einschalte kann ich nur 8 Bit einstellen. 12 Bit ist also am hochwertigsten? Dann sollte ich doch das nutzen? zwischen 10 bit und 12 bit gibt es kein unterschied. Bei ycbcr 444 kann ich auch nur 8 bit einstellen. Also was wäre von der Technischen seite das beste für mein Fernseher?
IMG_20230509_185920.jpg
 
ich persönlich komme mit 10bit 4:2:2 und HDR am besten zurecht, bzw mehr gibt meine Signalkette nicht her. Der Mehrgewinn durch HDR gegenüber RGB ohne HDR ist doch schon immens.
 
Experte18 schrieb:
Bei ycbcr 444 kann ich auch nur 8 bit einstellen.
Ja weil da die Bandbreite von deinen HDMI Ports am Ende ist. Mehr Farbtiefe, die grundsätzlich besser ist, kannst du nur machen, wenn du die Farbauflösung reduzierst. Und das ist definitiv klar sichtbar in Details.

Ob 8 Bit HDR zu 10 Bit HDR ein sichtbarer Unterschied ist, ist die erste Frage. Bei meinem Monitor sehe ich auch mit Farbverläufen keinen Unterschied. Und ich bezweifele auch ernsthaft, ob Windows mehr als 10 Bit nutzen kann (so, dass am Monitor nicht das gleiche Bild rauskommt. Weil nichts in Windows vermutlich die höhere Farbtiefe nutzen kann). Deshalb würde ich für 12 Bit kein Chroma opfern wollen. Wenn du einen Unterschied zu 8 Bit siehst und 10 oder 12 Bit beide das gleiche Subsampling brauchen ist es ja egal, dann nimm halt das höhere.

Ergänzung ()

usmave schrieb:
Der Mehrgewinn durch HDR gegenüber RGB ohne HDR ist doch schon immens.
Das ist grundsätzlich unabhängig. HDR10 ist der Farbraum, wie der Monitor die Daten interpretiert. Das ist unabhängig von der Farbtiefe und geht von 8 bis 14 Bit. Genauso wie SDR. Und ob RGB oder YCbCr ist auch erstmal unabhängig von HDR / SDR und Farbtiefe. RGB ist grundsätzlich besser, erst recht an PCs. YCbCr will man eigentlich genau nur weil man damit Chroma Subsampling machen kann um Bandbreite zu sparen, was aber mit PC-Text deutlich sichtbar ist.
Und in der TV Welt wird Chroma-Subsampling genutzt, weil jedes digitale Videosignal ohnehin schon in Chroma-Subsampling kommt. Und da es da nur Vollbild gibt, kann man das Signal unverändert durchreichen bis zum TV und braucht dafür dann weniger gute Kabel.

Edit:
Ok mit dem Tiff Gradient von RTings (https://www.rtings.com/tv/tests/picture-quality/gradient) kann ich tatsächlich einen Unterschied sehen zwischen 8 Bit HDR mit Dithering und 10 Bit HDR (aber wirklich nur ein sehr feiner, wenn ich weit in die Gradienten reinzoome). Das ist aber das erste mal dass er mir auffällt. In anderen Tests fällt der Unterschied nicht auf. Damit könntest du dann auch testen ob man einen Unterschied zwischen 10 und 12 Bit bei deinem TV sehen kann / ob Windows das überhaupt kann.
Da ich mit 10 Bit schon keinerlei Stufen mit bloßem Auge mehr in dem Gradienten erkennen kann, glaube ich nicht wirklich dass man den Unterschied zu 12 Bit noch mit bloßem Auge sehen kann, selbst wenn Windows und ein Program das könnten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lazsniper
Aber einen Tod wird er sterben müssen, 10bit 4:2:2 oder 8bit RGB. Für 4:4:4 oder RGB mit 10bit reicht sein HDMI Protokoll eben nicht aus, meins ebenfalls nicht.
Generell fällt mir der Unterschied von 4:2:2 zu rgb nicht auf, aber von 8bit zu 10bit schon, von daher hab ich 10bit 4:2:2 gewählt.
 
usmave schrieb:
Generell fällt mir der Unterschied von 4:2:2 zu rgb nicht auf, aber von 8bit zu 10bit schon
Dann ist ja gut. Diesen Tradeoff habe ich ja auch versucht zu beschreiben und gesagt TE soll schauen was davon störend auffällt. Wenn man nah genug am Monitor dran ist, dass die Pixel Sinn machen, dann sehe ich bei statischem Text wie in Desktopanwendungen Chroma Subsampling deutlich. Aber klar bei Spielen, Filmen etc im Vollbild fällt das nicht auf, dafür wurde Chroma Subsampling ja auch entwickelt.

8 Bit HDR mit Dithering ist bei mir schon 10 mal besser als 8 Bit SDR. Rausgezoomt sehe ich da keinen Unterschied in dem Testfarbverlauf.

Aber wie RTings auch drauf hinweißt und ich das auch getan habe, kann ein bestimmter Bildschirm das durchaus unterschiedlich darstellen. Gerade wenn der TV einige Bildverbesserungen drüber laufen lässt, könnte es sehr wohl einen größeren Unterschied machen. Dann noch eigene Präferenz + Anwendungsfall obendrauf und jeder kann einstellen was er will. Nur die Aussage "Farbtiefe ist immer besser und muss auf jedenfall auf Kosten von allem anderen maximiert werden" ist schlicht falsch.
 
  • Gefällt mir
Reaktionen: usmave
du sollst gar nichts wählen SDR bleibt auf 8 bit. HDR ist automatisch 10 bit. Es wechselt logischerweise automatisch schon wieder so viel FUD hier. teste es selbst aber panel neu öffenn nach switch
 
@Hominem das ist was Windows macht und was mich zu der Vermutung führt, dass Windows eh nicht mehr als 10 Bit sinnvoll kann.

Aber viele sind halt noch die Nvidia / AMD Treiber Control Panel gewöhnt für alle ihre Einstellungen. Und die lassen einem halt bei Farbtiefe noch die Wahl und wenn man dort drin rum stellt, muss man evtl auch manuell die Farbtiefe anheben.

In Windows muss man stattdessen manuell checken, ob der Anschluss in ein Limit läuft und evtl. an irgendeiner Stelle reduzieren um 10 Bit HDR zu erhalten. Chroma Subsampling lässt dich Windows ja zB gar nicht einstellen, das gibt es nur im GPU Treiber, wenn überhaupt.
 
Nerin musst du nicht in W11 kannst du HDR mit shortcut sofort aktivieren. W11 ist wie auf einer Xbox da geht das auch automatisch.

8 bit mit hdr hat falsche balcklevels kann man gut testen mit einem spiel das kein auto hdr hat.

WerHdr am Pc benutzt sollte umgehend auf windows 11 gehen ohne wenn und aber. Alles andere macht das leben nur unnötig schwer.

du musst gar nichts machen null nada. alles auf uto lassen.

es ist irelevant welche bit zahl man einstellt es wird automatisch das genommen was richig ist und natives 12 bit material good luck. verursacht nur banding. Den tv noch auf pc stellen um 4:4:4 Chroma zu haben fertig.
 
und was bekommst du da als Ergebnis bei raus bei einer HDMI 2.0 Verbindung?
 
Hominem schrieb:
8 bit mit hdr hat falsche balcklevels
Nö. Das wäre dann ein Problem mit deinen GPU Treibern oder deinem Monitor. Ist aber kein grundsätzliches Problem.
Hominem schrieb:
du musst gar nichts machen null nada. alles auf uto lassen.
Dann kriegt man in TEs Fall eben nur 8 Bit HDR, was du selbst ja als kaputt bezeichnest. Du machst es dir zu einfach und wiedersprichst dir dabei auch noch.

Windows wählt nicht automatisch die für dich besten Einstellungen, es macht nur HDR an, irgendwie. Wenn die Bandbreite zum Monitor schon mit 8 Bit am Limit ist, gibt es eben nur 8 Bit HDR. Wenn noch Platz für 10 Bit ist, wechselt Windows auch automatisch auf 10 Bit.

Wenn man zB einen Monitor wie ich habe geht bei 144Hz nur 8 Bit HDR. Wenn man aber auf 120Hz reduziert gibt es auch 10 Bit HDR (was Windows dann vollautomatisch anschaltet). Aber der Punkt ist, wenn man sich damit ein wenig mehr beschäftigen möchte, dann sollte man eben doch wissen was passiert, in die erweiterten Displayeigenschaften von Windows schauen und sich entscheiden was einem lieber ist. 8 Bit HDR + 144Hz oder 10 Bit HDR + 120Hz.

Genau wie TE das für Chroma-Subsampling und Farbtiefe entscheiden muss, weil alles zusammen eben nicht geht.
 
HDR Content ist nicht in 8 bit.....

Na dann mach mal in w11 switch du mit hdr hin und her in 1 sekunde . Dann siehste selbst. Wenn man sdr content in den hdr container schmeisst kommt müll bei raus. Deswwegen sind sind misten hdr implementierungen in speilen eher schlecht als recht. Weil die entiwckler genau das machen.

ja ne klar. :)
 
Du scheinst mir nicht an Richtigstellungen von deinen Fehlannahmen und Ungenauigkeiten interessiert. Und Lesen wohl auch nicht so.
Deshalb spare ich mir jetzt mal meine Antworten, ohne gezielte Nachfragen, die was ich bisher schon geschrieben habe berücksichtigen.
 
  • Gefällt mir
Reaktionen: usmave
Danke für die Antworten. Ich werde mich morgen mal in Ruhe mit den Möglichkeiten befassen!
 
Hominem schrieb:
Nerin musst du nicht in W11 kannst du HDR mit shortcut sofort aktivieren.
WIN+ALT+B geht auch schon in Windows 10
Hominem schrieb:
Deswwegen sind sind misten hdr implementierungen in speilen eher schlecht als recht.
An schlechten Implementierungen ändert Windows 11 ja mal gar nichts. Warum empfiehlst du das dann, anstatt SpecialK HDR Retrofit? Hast doch so viel Ahnung.........

Ray519 schrieb:
Da ich mit 10 Bit schon keinerlei Stufen mit bloßem Auge mehr in dem Gradienten erkennen kann
Nichtmal im Himmel? Da finde ich, sieht man das immer am Einfachsten. Death Stranding mit seinen großflächigen, metallischen Texturen und scheinbar ungünstiger Beleuchtung sieht man das auch immer recht schnell.
Death Stranding Screenshot.png
In 8Bit sieht das noch schlimmer aus :)

Ich meine mich dran erinnern zu können, dass früher beim CRT Monitor derartige Verläufe komplett verschwunden sind, wenn man von 16Bit auf 32Bit umgestellt hat. Aber vielleicht ist das auch nur die Nostalgiebrille :)
 
Ich hatte vorhin mit dem Testfarbverlauf den ich verlinkt hatte getestet. Da konnte ich den Sprung mit 8 Bit Dithering HDR dann noch sehen.

Die spannende Frage ist wie stark unterschiedlich das Dithering ausfallen kann (ich hätte jetzt erwartet, dass das genau dazu da ist, so einen Fall wie bei dir im Bild zu "verstecken" oder zumindest etwas abzuschwächen. Vllt sind da GPUs, Treiber und Spiele unterschiedlich, also dass vllt ein Spiel es verhindert mit bestimmten Schnittstellen oder so? RTings hatte auch den Punkt aufgeführt, das TVs anscheinend häufig ihre Berechnungen in der nominellen Farbtiefe machen. Also es evtl gar nicht das 8 Bit Dithering selbst ist, das offensichtlich Stufen hat, sondern andere Teile die dann doch wieder in 8 Bit weiter rechnen und damit wieder Artefakte zurückbringen.

Und ich wette, das das auch je nach Genauigkeit des Monitors unterschiedlich auffällt.
Mit dem Testfarbverlauf ist es in dunklem Grün viel eher aufgefallen als in anderen Farben.

In der Praxis war ich eigentlich auf 10 Bit seit ich den Monitor habe, zur Sicherheit und weil ich mit einer alten GPU mal Probleme mit 8 Bit HDR hatte. Die letzten 2 Wochen war ich dann auf 8 Bit Dithering, weil ich rumgespielt hatte und überraschenderweise keinen Unterschied gesehen hatte in den 2 Wochen (sekündärer Monitor weiterhin auf 10 Bit). Bis ich jetzt den Farbverlauf ausgepackt hatte und dort dann doch mit 8 Bit HDR noch ganz leichte Stufen sehen konnte, die mit 10 Bit weggehen.

Mir ist aber nicht gelungen auch nur die Stufen von 8 Bit SDR in einem Foto festzuhalten...
 
Zurück
Oben