Digitalkamera an 12 Bit LUT Monitor

ScoutX

Captain
Registriert
März 2003
Beiträge
3.833
Hat von Euch schon jemand eine Digitalkamera mit HDMI (z.B. die Nikon D3) an einen 12 Bit LUT Monitor angeschlossen?

Wenn ja, waren die 16bit RAW Bilder die von der Kamera ausgegeben werden bei entsprechend kalibriertem Monitor (z.B Photogamut Profil) "unverfälscht" oder gab es merkliche Unterschiede zum Motiv.

Die Frage zielt dahin, wie der Monitor die Farben prozessiert und wie gut die heutigen Monitore wirklich sind. Es heißt, dass Monitore mit erweiterten Farbraum zuerst auf 14 oder 16 bit intern hochskalieren und dann nur als 12 bit ausgibt. Wie verhält sich der Monitor aber, wenn 16 bit schon vorhanden sind.

p.s. Die Kamera könnte aber auch die RAW Formate als 24 bit anstatt 48bit über den HDMI downsampeln, dann wäre der Vergleich hinfällig.

Leider verfälscht jeder PC durch das OS als auch durch die maximalen 10 bit, die über die Grafikkarte kommen, jedes Bild.
Bei den 10 bit kann man noch nichtmal davon ausgehen, dass diese unbeschadet von der Software über das Betriebssystem und den Grafikkartentreibern gekommen sind und es sich wahrscheinlich eher um hochgerechnete 8 Bit Farbkanäle handelt.

Wäre für einen Erfahrungsbericht dankbar. Ich habe den Thread aufgrund der speziellen Fragestellung nicht unter Monitore eröffnet.
 
Salut,

für diese sehr komplexe Fragestellung kann ich dieses Forum empfehlen.

Irgendwie komme ich mit deiner Fragestellung nicht ganz klar, meine Bilder in der Kamera sehen auf dem kalibrierten Eizo absolut identisch aus. Von Verfälschung seitens des Betriebssystems kann ich nichts erkennen.
 
Danke für die Antwort. Schauen wir mal, ob ich im Nikonforum etwas finde.

Mir geht es darum, wie die Farbräume errechnet werden, wenn über bestimmte Kanäle mehr als 8 bit pro Farbkanal an den Monitor kommen.
Heutige Grafikkarten haben allerhöchstens 10 bit pro Kanal, die meistens aber aus 8 bit Softwarequellen stammen. Betriebssysteme wie Windows operieren intern wohl nur über 8bit. Die bekannte Software Powerstrip ist z.T in der Lage hier zumindest 10 bit an die Grafikartentreiber zu übergeben. Ob diese dann unverfälscht weiter an den Monitor gelangen ist fragwürdig. Da intern die Grafikkarte meistens hochskaliert und dann wieder auf 10 bit downgesampelt werden. Stichwort internes und externes LUT. Dadurch zieht man Farbräume auseinander. Bei Monitoren gibt es ebenfalls einen internen und externen LUT. Abhängig ist die Farbtiefe natürlich auch vom Anschluss. Zum einen ist Digital Voraussetzung, zum anderen HDMI oder Displayport. Letzterer ist fähig bis zu 16 bit Farbtiefe pro Kanal zu übertragen. HDMI kann dies nur bei Chips die den 1.3 Standard unterstützen. Also erst seit etwa 7 Monaten ( http://www.marcush.de/2007/11/25/stmicroelectronics-liefert-neuen-hdmi-chip-fur-tv-mit-16-bit-color/ ).

Daraus resultiert die von den meisten so genannte Bonbongrafik. Wenn erweiterte Farbräume nur über 8 bit angesprochen werden. Nur 16 Millionen Farbschattierungen müssen in einen Farbraum mit deutlich mehr Abstufungen hineingebracht werden. Obwohl z.B einige Farbräume wie das WidegamutRGB die meisten anderen Farbräume zu 100% abdecken und theoretisch ein exakter Farbabgleich von z.B. sRGB Quellen in das Widegamut RGB möglich wäre, wird dies technisch nicht gemacht.
Das Beispiel ist vielleicht auch unglücklich gewählt, da kein Monitor Widegamut RGB abdeckt. Im Prinzip sollten aber zumindest die Farbbereiche identisch dargestellt werden können, die sich in beiden Farbräumen überlappen und zu denen der Monitor fähig ist. Verhindert wird dies aber durch Software, die LUT der Grafikkarte als auch des Monitors (?) und insbesondere der 8bit Problematik..

Lange Rede kurzer Sinn. Deswegen wollte ich gerne erfahren, wie 12 bit LUT Monitore mit Digitalkameras über HDMI (1.3) kommunizieren und wie die Ergebnisse aussehen. Denn nur bei Digitalkameras hat man eine 16 bit Kanal Quelle und keinen störenden PC im Hintergrund.
 
Zuletzt bearbeitet:
Zurück
Oben