10 Bit (FRC) Monitor und HDR?

Luwugi

Cadet 2nd Year
Registriert
Juli 2021
Beiträge
17
Ich würde gern wissen, ob es möglich ist, meinen PC und Monitor unter Windows 10 für HDR einzurichten. Wenn nicht, würde ich gern wissen, was die einfachste und akkurateste Problemumgehung ist. 10 Bit habe ich in den Grafiktreibern bereits erfolgreich aktiviert. Dass es funktioniert, konnte ich mit Testvideos sicher verifizieren. Allerdings sieht HDR10-Videomaterial gräulich und kontrastarm aus. Das lässt sich durch Anpassung von Helligkeit und Kontrast im Grafiktreiber oder in den Monitoreinstellungen beheben, doch ist das recht umständlich, ungenau und bei jedem Video unterschiedlich. Daher wüsste ich gern, ob es da eine bessere Lösung dafür gibt.

Spezifikationen:
iiyama ProLite XUB2792QSU Monitor
EVGA GeForce GTX 1650 SUPER GPU
Media Player Classic HC mit MadVR
 
Mal mit Youtube HDR Videos getestet, wo auch wirklich HDR aktiv ist?

HDR selber hast du in Windows auch aktiviert? Die 10 Bit Einstellung im Treiber ist dafür nicht erforderlich...

Entweder wird dein HDR Testvideo als SDR wiedergegeben oder der Monitor ist einfach zu schlecht für sinnvolle HDR wiedergabe. Ggf. muss in deinem Monitor auch HDR erst akiviert werden. Wenn ich HDR in Windows aktiviere aber im Monitor ausschalte, ist das Bild auch extrem blass und grau.
Ergänzung ()

Luwugi schrieb:
iiyama ProLite XUB2792QSU Monitor
Laut Iiyama hat der gar kein HDR, dann wäre das natürlich klar. 10 Bit macht ein Gerät nicht automatisch HDR-fähig.
 
Zuletzt bearbeitet:
cvzone schrieb:
10 Bit macht ein Gerät nicht automatisch HDR-fähig.
Das habe ich mir schon gedacht. Allerdings stellt der Bildschirm es wie erwähnt nach Kontrast-Anpassungen ziemlich gut dar. Daher frage ich mich, ob es da eine bessere, automatische Lösung gibt. Ich verstehe auch ehrlich gesagt nicht, warum die Konvertierung von HDR zu SDR auf einem 10-bit-Display technisch so schwer sein soll.
 
Zuletzt bearbeitet:
Luwugi schrieb:
Ich verstehe auch ehrlich gesagt nicht, warum die Konvertierung von HDR zu SDR auf einem 10-bit-Display so schwer sein soll.
Ich kann dein Problem ehrlich gesagt nicht nachvollziehen. Geräte ohne HDR Fähigkeit sollten keinen HDR Content bekommen. Das Signal ist einfach unpassend. Klar kann man daran rumbasteln, aber das hat nichts mit sauberer Anzeige zu tun. Wenn der Monitor kein HDR kann, dann sollte die HDR Wiedergabe deaktiviert werden. Dann gibt es SDR Content und es muss auch nichts konvertiert, umgestellt oder angepasst werden.
HDR und SDR sind einfach verschiedene Signale. 10 Bit hat damit erstmal nur bedingt etwas zu tun (als zwingende Voraussetzung um überhaupt HDR darstellen zu können).
 
  • Gefällt mir
Reaktionen: Shakj
Luwugi schrieb:
Welche Konvertierung? Der Monitor bekommt ein HDR Signal im Rec.2020 Fabrraum und mit Helligkeitswerten, mit denen er einfach nix anfangen kann.

Aber da du vermutlich gar kein HDR in Windows aktivieren kannst, wir es das HDR Bild des Videos einfach in ein SDR Signal pressen, wo die Werte auch überhaupt nicht zueinander passen. Eine Konvertierung finden auch da nicht statt.
 
Zuletzt bearbeitet:
Moep89 schrieb:
Wenn der Monitor kein HDR kann, dann sollte die HDR Wiedergabe deaktiviert werden. Dann gibt es SDR Content und es muss auch nichts konvertiert, umgestellt oder angepasst werden.
Ich wüsste nicht, wo es überhaupt Videos oder Filme in 10-Bit-SDR mit 1440p oder mehr geben soll.

cvzone schrieb:
Eine Konvertierung finden auch da nicht statt.
Und meine Frage ist, wie man das konvertieren kann. Technisch sollte das meiner Logik nach absolut möglich sein, die Farben von HDR in das SDR-Signal zu konvertieren. Klar, es wird vielleicht ein paar Farb- oder Helligkeitswerte am Rand geben, die nicht exakt gleich dargestellt werden können, doch die kann man dann ja einfach in die am nächsten gelegenen SDR-Farbwerte umwandeln. Ich verstehe nicht, warum offenbar niemand mit entsprechenden Programmierkenntnissen es für wichtig erachtet, das mal umzusetzen.

Vielleicht kann mir hier ja aber auch mal jemand erklären, warum ein Videosignal mit erweitertem Farbraum bei Darstellung in SDR überhaupt gräulich und kontrastarm aussieht. Ich meine, in HDR sind weitere Farben und Helligkeiten möglich, als in SDR, wo der Farbraum eingeschränkter ist. Warum wird HDR dann aber in SDR sogar noch mehr eingeschränkt dargestellt? Warum nutzt die vorhandene Software bei HDR-Darstellung in SDR-Hardware nur einen kleinen Teil des in SDR vorhandenen Farbraums?
 
Luwugi schrieb:
Ich verstehe nicht, warum offenbar niemand mit entsprechenden Programmierkenntnissen es für wichtig erachtet, das mal umzusetzen.
Weils völlig unnötig ist. Du willst aus einem HDR Signal ein verfälschtes SDR Signal bauen, welches am Ende schlechter sein wird als natives SDR, obwohl du jederzeit auf das native SDR Bild zugreifen kannst.
Ergänzung ()

Luwugi schrieb:
Warum wird HDR dann aber in SDR sogar noch mehr eingeschränkt dargestellt?
Weil der Bildschirm mit den Farb- und Helligkeitswerten nichts anfangen kann und diese verfälscht darstellt. HDR erweitert nicht einfach nur SDR um hier ein paar Farbwerte und dort ein paar Helligkeitsstufen.
 
cvzone schrieb:
obwohl du jederzeit auf das native SDR Bild zugreifen kannst.
Ich wüsste nicht, wo es Videos oder Filme in 10-Bit-SDR mit 1440p oder mehr geben soll.
 
Der Monitor kann kein HDR Signal verarbeiten. Punkt. 10Bit Panel heißt nicht gleich HDR.
 
Luwugi schrieb:
Ich wüsste nicht, wo es Videos oder Filme in 10-Bit-SDR mit 1440p oder mehr geben soll.
Wozu brauchst du das denn? Einfach nur aus Prinzip? Es gibt die "ganz normalen" Videos mit 8 Bit bis zu UHD und es gibt Videos in HDR und daher zwingend auch 10 Bit. Wieso brauchst du 10 Bit SDR?
 
Und HDR heißt auch nicht zwingend 10 Bit...

EDIT: (intern ja, aber extern nicht)
 
Wenn du HDR-Videos abspielst und die unnatürlich blass aussehen, verwendest du vermutlich einen Player, der gar nicht realisiert, dass es sich um HDR handelt und das einfach unverändert an den Monitor durchreicht, welcher das dann aber als was komplett anderes interpretiert.

Wenn das Abspielprogramm HDR korrekt unterstützt, hat es zu erkennen, das es aber kein passenden Wiedergaberät gibt und dann das Bild zu SDR zu konvertieren. Dabei sollten dann nur Helligkeitsinfos und Details außerhalb des von SDR möglichen verloren gehen.
Darstellbare Farben sollten den Fähigkeiten des Displays entsprechend genauso aussehen wie mit HDR.
 
Moep89 schrieb:
HDR und daher zwingend auch 10 Bit.
Nicht unbedingt. Das ist zwar nötig, um den kompletten erweiteren Farbraum abzubilden und damit ein qualitativ hochwertiges HDR Bild zu haben, aber HDR geht auch mit 8 Bit. Das hat man ja auch oft bei Spielen, wo gar keine 10 Bit Assets etc. vorliegen und dann gibt es trotz HDR Banding etc.

Durch das 10 Bit auf 8 Bit "Downscaling" ist das Bild immer noch leicht besser und man profitiert auch von den besseren Helligkeitswerten gegenüber SDR. Gibt ja etliche 8 Bit HDR Gaming Monitore. Über die Qualität brauchen wir dann natürlich nicht reden...
 
Zuletzt bearbeitet:
cvzone schrieb:
Das hat man ja auch oft bei Spielen, wo gar keine 10 Bit Assets etc. vorliegen.
Das sind aber keine Videos. Und die folgen idR auch keinem HDR Standard. Für HR10, DV und Co. sind 10 Bit Pflicht. Der Rest ist ähnlich wie das alberne DisplayHDR-Siegel. Einzig HLG hat auch eine 8 Bit Variante wenn ich mich nicht irre. Aber das ist auch mehr Marketing als wirklich HDR.
 
  • Gefällt mir
Reaktionen: cvzone
Moep89 schrieb:
Wozu brauchst du das denn? Einfach nur aus Prinzip?
Genau, ich möchte das nur aus Prinzip. Es geht mir nicht darum, bzgl. Banding bessere Qualität zu haben. :rolleyes:
 
Das kannst du eh knicken. 10 Bit SDR wird fast nirgendwo sauber umgesetzt. Auch die ganzen Player verkacken das komplett. Am Ende ist das Bild eher schlechter als in 8 Bit.
Wenn du es testen willst, 10 Bit SDR findet sich häufig bei Fansubs von Animes.
 
Wie ich schon sagte, weiß ich aufgrund von den Testvideos, dass MPC-HC 10 Bit korrekt darstellt. Meine Frage ist nur, wie ich die Farben und den Kontrast von HDR möglichst akkurat und simpel richtig darstellen kann. Wie ich eben allein rausfand, kann VLC die Farben sehr gut umwandeln, jedoch leider nur 8 Bit ausgeben.
 
Probier mal MPC-HC mit madVR (zB aus K-Lite) erst damit kann MPC-HC auch HDR an meine HDR-Monitore ausspielen (die ganzen anderen Renderer können entweder kein HDR oder lassen sogar die SDR Konvertierung weg) und madVR hat auch ein paar Optionen zur Konvertierung nach SDR (ob das dann immer noch also 10Bit ausgegeben werden kann, weiß ich allerdings nicht, das ist halt wirklich Nische, erst recht für Video).
 
Die Einstellungen in MadVR funktionieren bei mir komischer Weise nicht. Obwohl es im MPC-HC als Output eingestellt ist, ändern die HDR-bezogenen MadVR-Einstellungen nichts am Videobild, auch wenn ich den Player schließe und neu öffne.
 
Ist madVR als Renderer einstestellt in MPC-HC? Das zu verstellen braucht bei mir immer einen Neustart von MPC. Die Einstellungen in madVR über das Icon in der Taskleiste sind dann instant.
 
Zurück
Oben