10 bit = Marketing-Gag?

zandermax

Captain
Registriert
Sep. 2010
Beiträge
3.131
Mich würde interessieren ob das Anzeigen von 10-bit-Inahlt auf einem Heimanwender-PC und einem 10 bit fähigen Monitor auch nur einen Vorteil hat.

Für reguläres Gaming dürfte es völlig nutzlos sein, da ohnehin alles auf 256 bit abgestimmt ist. Für Office genauso.
Für HDR wird es wohl ein notwendiges übel sein um bei der Dynamikkompression Tonwertabrisse zu verhindern. Wäre das in 8bit nicht einfach durch eine 16 bit LUT lösbar?

Und dann bleibt da noch Photoshop, oder Lightroom, die 10 bit gar nicht nutzen können, da sie auf OpenGL laufen und nicht auf DirectX.


Stellt sich also die Frage was 10 bit überhaupt bringt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TodboT
ich hab das auch nicht ganz verstanden. mit 8 bit je Farbkanal lassen sich 16 mio Farben darstellen. Ein 50 MP-Bild (ein UHD-Monitor hat nur 8 MP) hat je nach Motiv ca 150-300k (ganz selten mal 500k) Farben aus 16 mio.
Für was dann 10 bit je Kanal? Einzig bei Grün würde da sinn machen da das menschliche Auge deutlich mehr Grüntöne unterscheiden kann als beim Rest.
 
Moin! Interessantes Thema, das Du da anscheidest.

zandermax schrieb:
Für reguläres Gaming dürfte es völlig nutzlos sein

Für klassisches Gaming gebe ich Dir Recht, aber es gibt inzwischen genug Spiele, die HDR können. Und es gibt auch die passenden Monitore dazu. Man muss das als großes Ganzes sehen, es geht nicht nur um die Ausgabeeinheit. Die Spiele rechnen intern mit viel mehr Bits, um HDR abzubilden.

zandermax schrieb:
Für Office genauso

Auf jeden Fall! Das könnte man auch mit nur 16 Farben oder gar monochrom machen :D ;)

zandermax schrieb:
Und dann bleibt da noch Photoshop, oder Lightroom, die 10 bit gar nicht nutzen können, da sie auf OpenGL laufen und nicht auf DirectX.

Da hast Du einen Denkfehler bzw. siehst nicht den ganzen Workflow. LR und PS können mit mehr als 8 Bit pro Farbkanal umgehen. Das Ausgangsmaterial sind dann natürlich nicht einfache JPEGs, sondern RAW-Formate, bspw. CR2 bei Canon oder TIFF (von einem HDR-Programm). Hier gibts eine ganz gute Übersicht: 10-Bit Fotobearbeitungsworkflow
 
  • Gefällt mir
Reaktionen: VmaxGunni
Wenn auch das Ausgangsmaterial in 10bit ist dann ist es schon interessant für Video und Bildbearbeitung. Wenn es eben echte 10bit sind. Ein 10Bit Display welches mit normalen 8bit Filmen läuft bringt dann eben auch nicht mehr. Aber es sind immerhin 64x mal Farben im Farbraum. Und Photoshop kann mit nVidia das ganze seit letzem Jahr auch:

https://www.heise.de/newsticker/mel...upport-fuer-GeForce-Grafikkarten-4483412.html
 
Klar hat ein RAW 14 bit. Der Monitor kann trotzdem nur 8 bit anzeigen, auch wenn er 10 bit, oder 12 bit unterstützt
 
Da wirds recht gut erklärt, für was es nützlich ist.
 
  • Gefällt mir
Reaktionen: VmaxGunni
zandermax schrieb:
Klar hat ein RAW 14 bit. Der Monitor kann trotzdem nur 8 bit anzeigen, auch wenn er 10 bit, oder 12 bit unterstützt

Wo siehts du den Grund? Diese Aussage irritiert mich stark. 10 bit wird doch genutzt für einen größeren Farbraum, und wenn die Kette komplett 10bit unterstützt, Grafikkarten und Treiber können dass, Adobe Software auch, dann sollte dass auch als 10bit am Monitor ankommen. Gerade Hauttöne und Farbverläufe werden so besser
 
Manche 8 Bit Monitore nutzen 6+2 Bit FRC. Ich hatte mir vor zwei Jahren mal einen Monitor mit 8+2 Bit FRC VA-Panel geholt. Er hat schon eine bessere Farbwiedergabe als mein damals 6 Jahre alter 1080p IPS Monitor gehabt, das könnte aber auch einfach durch das neuere und höher aufgelöste (1440p vs 1080p) VA-Panel kommen. Seit dem Wochenende nutze ich einen neuen VA Monitor mit 8 Bit ohne FRC und ich finde die Unterschiede marginal bei Spielen, allerdings ist jetzt die Pixeldichte höher und der Monitor hat 50cd/m^2 mehr.

Echtes HDR funktioniert nicht mit klassischen Paneln, da die Pixel, anders als bei OLED, nicht selbst leuchten. Daher lässt sich die Helligkeit nicht vernünftig steuern, was aber für HDR essentiell ist. Wenn du günstig einen 10-Bit Monitor findest, dann nimm ihn, schaden kann es nämlich nicht.

Und Photoshop kann sehr wohl mit 10-Bit umgehen. https://www.eizoglobal.com/support/compatibility/gpu/photoshopcc2017_18-nvidia-amd/
 
Zuletzt bearbeitet:
wern001 schrieb:
ich hab das auch nicht ganz verstanden. mit 8 bit je Farbkanal lassen sich 16 mio Farben darstellen. Ein 50 MP-Bild (ein UHD-Monitor hat nur 8 MP) hat je nach Motiv ca 150-300k (ganz selten mal 500k) Farben aus 16 mio.
Für was dann 10 bit je Kanal? Einzig bei Grün würde da sinn machen da das menschliche Auge deutlich mehr Grüntöne unterscheiden kann als beim Rest.

Mit 8 bit kannst du maximal 256 Helligkeitsstufen darstellen, mit 10 bit 1024. In manchen Bildern kommt es bei 8-bit zu sichtbarer Stufenbildung, während man mit 10 bit einen flüssigen Verlauf darstellen kann. Siehe z.B. hier:

https://fstoppers.com/education/can...bit-and-8-bit-images-and-video-footage-166977

edit: lustigerweise sieht den Effekt z.B. super in dem von M4ttX verlinkten Video in #6, während der Sprecher spricht. Der türkise Hintergrund hat sichtbare Farbabstufungen.
 
Zuletzt bearbeitet:
ich kenne diese Beispielbilder wo man absichtlich übertriebene falsche Bilder anzeigt um das zu verdeutlichen.

Wenn man diese Beispiele mit einer Lupe ala Consic Ruler anschaut sieht man deutlich das oft 2-5 oder mehr Stufen fehlen. Das sieht dann oft eher aus als würde man einem 16 bit bild als 24bit verkaufen wollen
 
Zuletzt bearbeitet:
ja das muss man ja so übertrieben darstellen. Man kann ja kein 10-bit Bild auf dem 8-bit Monitor anzeigen, um den Effekt zu verdeutlichen?!

Wie gesagt, im Video von #6 (wenn der Sprecher spricht) sieht man es direkt, da ist ja nichts extra übertrieben.
 
Ich schätze da ist eher die verlustbehaftete Komprimierung schuld.
Bestes beispiel ist der NVenc mit h.265 der kann 8 und 10 bit.
bei feinen Farbverläufen hat die 8 bit version tonwert abrisse in der 10 bit version nicht.
komprimiert man das ganze mit aber mit der CPU-Version von h.265 in 8 bit gibt es keine Tonwertabrisse
 
Zuletzt bearbeitet:
M4ttX schrieb:
Da wirds recht gut erklärt, für was es nützlich ist.

Das ist mir alles klar. Mir gehts eher um das Anzeigen von 10-bit-Inhalten auf Monitoren.
Ich habe einen Eizo ColorEdge Monitor und 10 bit noch nie benutzt, weil ich keinen Sinn dahinter sehe.
 
Welche 10-bit meinst du eigentlich? Es gibt ja mehrere Stellen, wo die Farbtiefe relevant ist, aber nicht immer direkt mit den anderen zusammen hängt. Ich beziehe mich jetzt mal auf die Übertragung von der Grafikkarte zum Monitor. Da ist die höhere Farbtiefe schon daher wichtig, den Monitor richtig kalibrieren zu können. Bei einem Mapping von einem 8-bit Bild auf einen kalibrierten 8-bit-Monitor gehen definitiv Farbwerte verloren. Das kann man nur durch eine höhrere Farbtiefe am Monitor verhindern.
 
Zuletzt bearbeitet:
Im Prinzip mag das alles gut und recht sein, aber was nützen mir drölf Mio. Farben wenn kein Drucker das auf das Papier bringen kann?
 
Ja, ich beziehe mich auf die Ausgabe.
Stellt sich aber wieder die Frage: Wie willst du 10 bit sehen, wenn OpenGL nur 8 bit anbietet? Dafür bräuchtest du eine Quadro, oder Radeon Pro und wer hat das schon?
 
Haben sich ein paar 10 Bit Hasser zusammengefunden?
10 Bit funktioniert mit jeder halbwegs aktuellen Grafikkarte, auch mit OpenGL.

Ich verstehe nicht wie man daran zweifeln kann, sieht doch viel besser aus. Wenn ich mir einen neuen Monitor kaufe dann auf keinen Fall mehr 8 Bit.

Ein Marketing-Gag ist 10 Bit auf gar keinen Fall. Der HDR-Support bei einigen Monitoren dagegen schon.
 
  • Gefällt mir
Reaktionen: cyberpirate
Und dann bleibt da noch Photoshop, oder Lightroom, die 10 bit gar nicht nutzen können, da sie auf OpenGL laufen und nicht auf DirectX.
Es sei denn, man hat (im Falle von nV) einen Studio-Treiber installiert.

Und Photoshop kann mit nVidia das ganze seit letzem Jahr auch:
Richtig. WENN ein Studio-Treiber installiert ist und kein Game-Ready-Treiber. (Wie es in deinem verlinkten Text auch deutlich steht, einfach mal LESEN!)

Ansonsten: Immer wieder zum Schiessen, hier über solche Themen zu lesen, wo prakt. nur Unsinn
bei herauskommt. Öfter mal Dieter Nuhr's berühmten Spruch sich zu Herzen nehmen, kann man da bloss sagen.
 
Zu dem Thema habe ich vor ein paar Wochen einen ähnlichen Thread erstellt. Da spreche ich auch davon, dass Photoshop sehr wohl 10-bit Farbtiefe sichtbar unterstützt, solange man dies auch in dem Grafiktreiber einstellt. Allerdings muss man unterscheiden zwischen der Desktopfarbtiefe in 30-bit (SDR oder auch Deep Color), die nur professionellen Grafikkarten vorbehalten ist und der Möglichkeit der Ausgabefarbtiefe von 10-bit pro Kanal. Diese Ausgabefarbtiefe ist dann für DirectX als auch OpenGL Anwendungen verfügbar, sofern diese damit umgehen können. Photoshop kann es und man sieht mit einem 10-bit Panel auch 1024 Stufen anstelle von nur 256 Stufen. Die Desktopfarbtiefe bleibt natürlich bei 8-bit pro Kanal (also 24bit TrueColor) mit einer nicht-professionellen Grafikkarte. Normale Desktopanwendungen sind daher auch nur in 8-bit zu betrachten. Die GUI von Photoshop wäre dann auch in 8-bit. Aber die Bilddarstellung ist in 10-bit. Mir erschließt sich nicht warum man sich einen solch komplizierten Weg erdacht hat, aber sei es drum.
Ergänzung ()

eraser4400 schrieb:
Richtig. WENN ein Studio-Treiber installiert ist und kein Game-Ready-Treiber.
Ja, das ist korrekt (im Falle von nVidia). Dir bringt der Studiotreiber aber nichts, wenn du keine professionelle Grafikkarte hast. Denn dann kannst du im Studiotreiber auch keine 30-bit einstellen. Ich verstehe daher auch nicht, warum du das immer wiederholst. Studiotreiber und GameReady Treiber unterscheiden sich kaum. Und 10-bit Ausgabefarbtiefe sind auch ohne Studiotreiber möglich. Du kannst mit dem Studiotreiber genauso Borderlands 3 spielen. Man hat nur nicht irgendwelche Optimierungen für die neuesten Spieletitel.
 
Zurück
Oben