HDR vs. 10-bit Farbtiefe

30Bit fehlen (3x10bit). Das ist das Problem und doch die ganze Zeit teil dieses Threads. Stattdessen ist es nur OpenGL und DirectX Programmen vorbehalten 30Bit zu nutzen. Windows kommt damit nicht klar. Das ist umständlich.
 
Du hast doch gesagt, man kann es auswählen. Deep-Color ist 30Bit (oder mehr).
Drakonomikon schrieb:
Ich verstehe nicht wieso man neben High-Color und True-Color auch Deep-Color auswählen kann.
 
Zuletzt bearbeitet:
eraser4400 schrieb:
Link durchlesen und kapieren. 10bit NUR mit Studio-Treiber.
Machs gut, Jung.:)

Eine so überhebliche Schreibweise aber dann nicht mal lesen können... Es wird hier nur von OpenGL gesprochen. Wenn du dir sicher sein willst und der englischen Sprache mächtig bist, les dir den Originalartikel von AnandTech durch bevor du hier deine interpretation verbreitest.

Auf AnandTech steht: "...as while it’s possible to use 30-bit color elsewhere (e.g. DirectX), it was held back in a very specific scenario that impacted content creators."
 
Ja, man kann 10bpc auswählen. Das gilt aber nur für Anwendungen die es auch unterstützen. Windows zählt nicht dazu.

1604945501128.png
 
Dann ist das entweder eine politische Limitierung (non-quattro) oder Du probierst andere Treiber. Grundsätzlich gibt es diese Funktion (desktop color depth: 30-bit SDR, siehe unten).
Kann auch sein, dass die Option nur bei echten 10-bit Deep-Color Monitoren funktioniert. Fraglich, wie sich dein Monitor anmeldet. Evtl. kann man die 'Capabilities' abfragen.

https://nvidia.custhelp.com/app/answers/detail/a_id/4847/~/how-to-enable-30-bit-color/10-bit-per-color-on-quadro/geforce?

Was der Artikel verschweigt, ist, auf die Unterschiede dieser beiden Funktionen einzugehen (desktop<>output).

aid_4847_01.jpg
 
Zuletzt bearbeitet:
Ich habe jetzt mal den Studio-Treiber installiert. Ich habe diese Option für die Desktop Farbtiefe nicht und wusste auch nicht dass diese überhaupt existieren kann. Ich vermute, dass man eine Quadro braucht. Ich habe eine RTX2080. Denn im EDID meines Monitors wird 10bit Unterstützung gemeldet.

Sehr interessant ist übrigens folgende Demo, mit der man den Unterschied von 8bpc und 10bpc gut sehen kann: https://www.necdisplay.com/documents/Software/NEC_10_bit_video_Windows_demo.zip

Und in diesem Github gibt es 10bit Testbilder und Testvideos für verschiedenen Auflösungen.
 
Die Du via USB Stick direkt in den Monitor speist.

Wie ist es am PC? Hast Du Photoshop? Funktioniert das? Nur Fullscreen?
 
Ich hab eine Frage die hier dazu passt... Ich hab die Möglichkeit einen ASUS ROG Strix XG32VQR um 300 € gebraucht zu kaufen. Wenn ich den nun mit dem Dell S3220DGF Vergleiche würde für mich eigentlich der Dell gewinnen....

Beide VA
Beide 31,5"
Beide DisplayHDR400 (Dell mit 400 nits, ASUS mit 450 nits)
Beide Freesync Premium Pro (also Freesync inkl. HDR)
Dell 165 Hz, ASUS 144 Hz
Dell 10 bit (8+2), ASUS 8 bit...

Jetzt kostet der ASUS neu aber immer noch 500 € im gegensatz zu den 350 € vom Dell.
Ich verstehs nicht ganz. Ist der Asus der bessere Monitor? Was sagt ihr?
 
Was ist denn eigentlich besser 8bit 4.4.4 oder 10 bit 420
Benutzt wird ein LG c8 und eine AMD 6800xt
Finde bei 10bit 420 schaut das Bild Scheise aus
Will jetzt nicht unbedingt ein neuen TV mit hdmi 2.1 kaufen
 
Für Filme 10bit 4:2:0, das Material liegt eh nur 4:2:0 subsampled vor. Für Desktop 8bit 4:4:4 wegen der zusätzlichen Schärfe.
 
Zurück
Oben