Monitor läuft nur auf 8 bit Farbtiefe

Max_211

Newbie
Registriert
Jan. 2021
Beiträge
5
Hallo, hab mir vor rund einer Woche einen Philips E-Line 288E2A 4k 28 Zoll Monitor gekauft und bin sehr zufrieden damit als Office Bildschirm.
Datenblatt: Support für 4K Ultra HD-LCD-Monitor 288E2A/00 | Philips



Nun wollte ich checken, ob der Monitor auch mit 10 bit läuft, weil ja zwischen 8bit und 10 bit jetzt nicht so ein krasser Unterschied ist, dass man das gleich sagen kann. Ob der Monitor ein echtes 10 bit Panel oder nur 8 bit + FRC hat, konnte ich nicht rausfinden. Das sollte ja auch noch einen Unterschied machen, laut diesem Link: True 10-bit vs 8-bit + FRC Monitor | What is the difference? | Isolapse

Als Grafikkarte habe ich eine Quadro K620, die sollte in der Lage sein bei 4k 60Hz 10 bit rauszugeben. Nvidia Treiber ist 27.21.14.6089. Betriebssystem ist Windows 10 Pro.

Zum Testen habe ich mir einerseits ein Youtube Video von einem Sonnenuntergang mit 10 bit angesehen: (2) GH5 4K 10Bit 422 test footage of Siesta Key Sunset - YouTube

Und weiters habe ich hier eine Testvideo für Graustufen in 10 bit runtergeladen:10 bit Gradient Test Patterns | AVS Forum

Der Sonnenuntergang sieht Hammer aus (4k), aber am Rand hin sehe ich Farbabstufungen. Im Testvideo sehe ich klare Abstufungen, grob überschlagen ca. 250 Stück, also eindeutig 8 bit. Als Player habe ich ein paar probiert, aber grundsätzlich habe ich den VLC 3.0.11

Dann habe ich mich gespielt unter den Nvidia Anzeigeeinstellungen, und die Desktopfarbtiefe und die Ausgabefarbtiefe auf 8 bit umgestellt, macht alles keinen Unterschied. Weiters Auflösungen geändert, um eine eventuell limitierende DP1.2 Schnittstelle bzw. Grafikkarte auszuschließen, weil ich mir nicht sicher bin, ob die 4k 60Hz bei 10 bit überhaupt schaffen (Graka und DP). Als Videoplayer habe ich den VLC 3.0.11 in Verwendung, hier habe ich auch noch einige Einstellungen probiert.

Kann mir jemand einen Rat geben, warum zwischen 8bit und 10bit Ausgabe bei mir kein Unterschied ist, und offensichtlich das 10 bit Testvideo und Youtube Video auf 8 bit laufen?
 
Der Bildschirm kann definitiv 10Bit Farbtiefe. DP1.2 sollte bei 4K mit 10bpc für 75Hz reichen.

Hast du den Nvidia-Treiber mal auf YUV422-Farbcodierung gestellt? Bei RGB oder vollem Subsampling funktioniert wohl nur 8bpc oder 12bpc:
http://ltroyalshrimp.com/how-to-properly-setup-hdr10-output-on-windows-10/

Außerdem solltest du die Optionen "SDR (30-bit)" oder den WCG-64Bit-Modus ausprobieren, falls es dann noch nicht klappt: https://nvidia.custhelp.com/app/answers/detail/a_id/4847/~/how-to-enable-30-bit-color/10-bit-per-color-on-quadro/geforce?
 
Zuletzt bearbeitet:
ok, gut zu wissen. Ich habe in der NVIDIA Systemsteuerung unter Punkt 3 folgende Optionen:
  • Standard-Farbeinstellungen verwenden
  • NVIDIA-Farbeinstellungen verwenden

Ich habe NVIDIA ausgewählt, da nur da die Desktop-Farbtiefe auszuwählen ist.
Entweder SDR 24 bit oder SDR 30 bit. Für die Ausgabe-Farbtiefe habe ich 8 bpc und 10 bpc.

Ausgabeformat konnte ich nur RGB und YCbCr444 wählen, aber gerade war auch 422 möglich, wobei dann durch das Subsampling eine verschwomme Schrift mit Farbausfransungen entstanden ist, das ich so absolut nicht möchte.

Gerad nochmal getestet, 422 ist nur möglich, wenn die Ausgabe-Farbtiefe bei 8 bpc liegt. Mit 422 wirken Schriften nicht mehr so schön und sind farblich ausgefranst. Bei beiden Testvideos haben sich nicht verändert.

Der dynamische Ausgabebereich habe ich auch ausprobiert, der ist nur bei RGB zum umstellen, bei 444 ist es ausgegraut. Voll bewirkt bzw. versucht denke ich HDR, das schaut dann sehr überhellt aus.

Wünschenswert wäre RGB bzw. 444 bei 10 bit, (falls das mit 444 überhaupt geht) laut Einstellungen ist das auch aktiv, aber ich sehe keine 10 bit sondern nur 8 bit. Könnte es irgendwie am Kabel liegen? Hab die DP Spezifikationen nicht im Kopf und dachte, mit einer reduzierten Testauflösung von FullHD habe ich das bestimmt ausgeschlossen. Kabel war nicht beim Monitor dabei und ich kann wenig darüber sagen.

Laut dem Link hier:How to Tell the Difference Between Display Port 1.2 and 1.4 Cables - Displays - Linus Tech Tips sollte es kein Problem sein, bzw. mit FullHD sollte ich trotz worst case Kabel die 10 bit bekommen.

Gibt es vll noch die Möglichkeit, dass Youtube das so komprimiert und mein VLC mit Auto Settings kein 10-bit ausgibt? Aber andere Testbilder etc. Zeigen mir auch nur 8 bit bzw. Farbabstufungen.

Anbei ein Bild vom VLC Player mit Testvideo.
 

Anhänge

  • IMG_20201231_113847.jpg
    IMG_20201231_113847.jpg
    1 MB · Aufrufe: 675
Dann wähle "SDR (30-bit color)" (entspricht 3 Farben x 10 Bit) und 10bpc. Und probiere sowohl RGB als auch 444 aus.
Wenn der Treiber dir die Möglichkeit dazu bei 4K 60Hz gibt, sollte es funktionieren. Displayport führt eine Kommunikation zwischen Bildschirm und Grafikkarte durch und erkennt dabei die Übertragungsrate.

Mit Displayport1.2 und Standardkabel erreicht die Kommunikation den Status HBR2 mit ~21Gbps Bandbreite. Damit sind 10bpc bei 4K, RGB/444 mit 60Hz möglich, siehe:
https://en.wikipedia.org/wiki/DisplayPort#Refresh_frequency_limits_for_HDR_video

Bzgl Videoplayer such halt mal, was du dazu im Internet findest. Oder probiere mal einen anderen Player (MPC-HC ist auch empfehlenswert)
Wenn das Video bei Youtube mit 10Bit/HDR gekennzeichnet ist, sollte das funktionieren, sofern der Browser den Codec unterstützt.
Wenn du die Videos von Youtube auf deinen Rechner runterlädst, kannst du die Eigenschaften des Videos mit dem Tool "Mediainfo" prüfen, dass das Video auch in 10bpc ist.
 
Zuletzt bearbeitet:
Beides getestet im Vergleich zu 8 bit (24 bit und 8 bit, also beide Farbtiefeneinstellungen immer geändert) aber es macht keinen Unterschied, und 10 bit sind aus Gründen, die ich nicht nachvollziehen kann, nicht möglich.

Leider zeigt mein Monitor nicht an, wieviel Farbinformation er bekommt. Ich werde andere Player und das runtergeladene Video ausprobieren, aber ein Video, von dem ich mir 100 % sicher bin, dass es 10 bit ist (in den Eigenschaft kontrolliert und eben speziell für die Kontrolle 8 bit v.s 10 bit erstellt) spielt den Farbverlauf nicht stufenlos, auch nicht im MPC-HC.

Ich bin mir mittlerweile fast sicher, dass es die Grafikkartentreiber sein müssen, nach all den Tests und Informationen, recht viel was anderes kann ich mir nicht mehr vorstellen, wenn das Kabel ausgeschlossen werden kann.

Hierbei gibt es 2 Treibermöglichkeiten:
NVIDIA DRIVERS NVIDIA RTX / Quadro Desktop and Notebook Driver Release 460 WHQL
Und den hier:
NVIDIA DRIVERS Quadro Desktop/Quadro Notebook Driver Release 455

Ich weiß nicht mehr was ich runtergeladen habe, aber im Gerätemanager sagt er mir bei der Graka Treiber 27.21.14.6089, scheint also aktuell zu sein.
 

Anhänge

  • Screenshot (16).png
    Screenshot (16).png
    1 MB · Aufrufe: 422
Hab jetzt die Quadro Treiber 457.09 (Quadro new feature Treiber) anstatt der aktuelleren installiert, immer noch das gleiche...

Bei beiden Nvidia Treiber Release Notes findet sich Information bez. 10 bit, aber keine weiteren Daten.
Ergänzung ()

Ob ich 8bit oder 10bit einstelle macht keinen Unterschied. Youtube hat anscheinend nur bei 4k dithering, somit sind die Stufen nicht mehr wirklich ausnehmbar aber man sieht Farbabstufungen.

IMG_20210102_152932.jpg
Wird das Video auf 1080p gestellt, gibt es ganz klar sichtbar weniger mögliche Farben bzw. ist einfach Dithering aktiv und es schaut dann für mich klar nach 8 bit aus, aber daran wird wohl die Art und Weise, wie yt komprimiert verantwortlich sein.
IMG_20210102_152944.jpg

Das Video in 4k konnte ich nicht runterladen, da muss ich noch ein passendes Tool dafür finden.

Beim Testvideo sehe ich einen Unterschied zwischen 10 bit(oberer Bildschirmbereich) und 8 bit (unterer Bildschirmbereich). Ob ich jetzt in den NVIDIA Einstellungen 8 bit oder 10 bit einstelle, ist dabei komplett egal, was ich doch sehr komisch finde.
IMG_20210102_183743.jpg

Hier 10 bit Einstellung:
IMG_20210102_183823.jpg
und hier 8 bit:
IMG_20210102_191442.jpg

Das Ganze habe ich nun auf einen alten FullHD Bildschirm mit 8 bit wiederholt, der schaut für mich ident aus, mal von der Auflösung abgesehen. Auch hier sieht man Verbesserungen im Farbverlauf von 8 bit auf 10 bit im Testvideo, ich vermute das hat mit dem internen Farbansprechen vom Monitor zu zum.
 

Anhänge

  • Screenshot (17).png
    Screenshot (17).png
    872,8 KB · Aufrufe: 506
  • Screenshot (18).png
    Screenshot (18).png
    821,8 KB · Aufrufe: 382
  • Screenshot (24).png
    Screenshot (24).png
    683,1 KB · Aufrufe: 442
Zuletzt bearbeitet:
Das liegt an der Komprimierung des Videos. Bei 1080 ist die Kompression stärker. Die Farbanzahl wird auch reduziert. Am besten Content direkt aus der Kamera ansehen. Mit 50 oder 100 Mbits
 
Zuletzt bearbeitet:
Max_211 schrieb:
Hallo, hab mir vor rund einer Woche einen Philips E-Line 288E2A 4k 28 Zoll Monitor gekauft und bin sehr zufrieden damit als Office Bildschirm.
Datenblatt: Support für 4K Ultra HD-LCD-Monitor 288E2A/00 | Philips



Nun wollte ich checken, ob der Monitor auch mit 10 bit läuft, weil ja zwischen 8bit und 10 bit jetzt nicht so ein krasser Unterschied ist, dass man das gleich sagen kann. Ob der Monitor ein echtes 10 bit Panel oder nur 8 bit + FRC hat, konnte ich nicht rausfinden. Das sollte ja auch noch einen Unterschied machen, laut diesem Link: True 10-bit vs 8-bit + FRC Monitor | What is the difference? | Isolapse
Max_211 schrieb:
Hallo, hab mir vor rund einer Woche einen Philips E-Line 288E2A 4k 28 Zoll Monitor gekauft und bin sehr zufrieden damit als Office Bildschirm.
Datenblatt: Support für 4K Ultra HD-LCD-Monitor 288E2A/00 | Philips

Nun wollte ich checken, ob der Monitor auch mit 10 bit läuft, weil ja zwischen 8bit und 10 bit jetzt nicht so ein krasser Unterschied ist, dass man das gleich sagen kann. Ob der Monitor ein echtes 10 bit Panel oder nur 8 bit + FRC hat, konnte ich nicht rausfinden. Das sollte ja auch noch einen Unterschied machen, laut diesem Link: True 10-bit vs 8-bit + FRC Monitor | What is the difference? | Isolapse
Sry fürs ausgraben - ähnliches Thema war grad bei nem Kumpel aktuell…
Falls nicht schon beantwortet - zu Deinem Monitor: sollte angeblich 8bit+LFC sein…

https://www.displayspecifications.com/de/model/a7ec205b
 
Zurück
Oben