2080 TI auf 10 Bit Farbdarstellung einstellen?

PHuV

Banned
Registriert
März 2005
Beiträge
14.219
Ich habe hier ein 10-Bit Display (8+FRC, LG 34WK95U-W HDR 600) stehen und per DP angeschlossen, und möchte gerne auf einer 2080 TI FE ebenfalls 10 Bit einstellen. Aber es wird mir nicht angeboten. Ich dachte, das geht mittlerweile bei normalen Karten auch, oder ist das nach wie vor den professionellen Karten vorenthalten?
 
1540925074972.png

Das geht also nicht?
 
10bit wird nur in DirectX Vollbild Anwendungen unterstützt. Also Photoshop und Lightroom kann man vergessen.
 
PHuV schrieb:
Korrekt. Ich sehe nur die 8 bpc, siehst Du etwa mehr?

Du musst schon auf "Nvidia-Farbeinstellungen" umschalten um etwas mehr zu sehen... - ob es etwas bringt ist eine andere Frage...
 
@PHuV
Ich sehe da nicht mehr, denn mein Monitor unterstützt nur 8Bit ohne FRC.
Ergänzung ()

Hab grad nur kurz im Netz geschaut. Die meisten oder fast alle 8Bit+FRC Monitore geben sich nicht als 10Bit Monitore aus und somit kann man bei Nvidia nicht 10 Bit auswählen.
 
Zuletzt bearbeitet:
Robo32 schrieb:
Du musst schon auf "Nvidia-Farbeinstellungen" umschalten um etwas mehr zu sehen... - ob es etwas bringt ist eine andere Frage...
Ich weiß das schon, man muß umstellen, aber ich bekomme nur 8 Bit angezeigt. Bei den Video-Farbeinstellungen kann ich auf (Voll) 0-255 anstelle von Begrenzt 16-255 einstellen.
 
Dein Monitor muss explizit das Signal Senden, ansonsten kannst du nur 8 Bit einstellen.

Bei mir ist es zb. so das ich erst "Spiel HDR" im Monitor aktivieren muss damit ich 12 bit einstellen kann
 

Anhänge

  • nv_farbtiefe.JPG
    nv_farbtiefe.JPG
    43,2 KB · Aufrufe: 1.452
Ob 10Bit oder 8Bit+FRC machen für die Grafikkarte keinen Unterschied.
Nvidia ist da halt öfter mal zickig.
Monitor Treiber Installiert? Was zeigt Windows bei der Bildwiederholfrequenz an?

@Häschen
Was für ein Monitor ist das? Kann ja nicht deren ernst sein, 10/12Bit NUR im HDR Modus zu unterstützen. Gibt wirklich wirklich auch einige die schlicht "nur" 10/12 Bit Farbtiefe wollen.
 
@PHuV
Schau noch mal in den Einstellungen vom Monitor nach. Da hast du sicher eine Option übersehen.
Hast du Displayport 1.4 aktiviert?
Ergänzung ()

Settings -> General -> Display Port Version
 
Ja, ich habe DP 1.4 eingestellt, und HDR. Trotzdem kommt bei der KG nichts weiter an.
LukS schrieb:
Hab grad nur kurz im Netz geschaut. Die meisten oder fast alle 8Bit+FRC Monitore geben sich nicht als 10Bit Monitore aus und somit kann man bei Nvidia nicht 10 Bit auswählen.
Hm, das wäre wirklich blöde, wenn dem so ist. Die Anleitung sagt explizit "8-bit / 10-bit color is supported." (34WK95U_34BK95U_ENG_US.pdf, Seite 23). Per HDMI kann ich zwar HDMI ULTRA HD Deep Color einstellen, aber das schafft nur die Auflösung von 3840 x 2160 @ 60 Hz.
 
Zuletzt bearbeitet:
Hast du mal testweise eine niedrigere Auflösung eingestellt? Kommt es dann?
Welches Betriebssystem benutzt du? Win 10? Wenn ja, welchen Build?
 
janeeisklar schrieb:
@Häschen
Was für ein Monitor ist das? Kann ja nicht deren ernst sein, 10/12Bit NUR im HDR Modus zu unterstützen. Gibt wirklich wirklich auch einige die schlicht "nur" 10/12 Bit Farbtiefe wollen.

Dell S2718HN

HDR muss man in Windows noch zusätzlich aktivieren damit HDR funktioniert.
Im Monitor muss man aber HDR Modus aktivieren damit 12 Bit funktioniert, ansonsten hat man nur HDMI 1.4.
12/10 Bit funktioniert erst mit HDMI 2.0 und einem HDMI 2.0 zertifizierten Kabel, zumindest steht es so im Handbuch.

Also HDR Modus heißt nicht das HDR gleich an ist, HDR nutze ich nie weil die schärfe ekelhaft ist.
 
Zuletzt bearbeitet:
>HDR nutze ich nie weil die schärfe ekelhaft ist.
Mir klar, das Panel hat ledeglich 6Bit+FRC

Der HDR "Modus" dieses Monitors versaut dir die Latenz, egal ob du HDR zuspielst oder nicht.
Sorry, hoffe ich trete dir nicht zu nahe aber HDR würde ich bei dem Monitor auch aus lassen. :O
 
Nach Geizhals und Prad.de soll der LG Electronics 34WK95U-W nur DP 1.2 haben,nach anderen Quellen bzw. LG soll er jedoch DP 1.4 haben und das eigentlich können.
Hätte er nur DP 1.2 wären es bei 10bit 18,53 GBit/s was über den 17,28 GBit/s des DP 1.2 liegt.
Eigentlich gibt der Monitor ja die Info an die GPU was er kann oder nicht kann.
Kann man ruhig mal mit UHD Auflösung und/oder Farbunterabtastung YCbCr 4:2:2/4:2:0 probieren ob 10bit dann auswählbar sind, einfach um zu sehen ob der NVidia Treiber dann andere Auswahlmöglichkeiten bietet,
 
Zuletzt bearbeitet:
Was ich gelesen habe soll der Monitor die 5K Auflösung bei 10 Bit können, wenn man DP 1.4 im Menü aktiviert. Es steht aber nichta dabei ob das nur mit Farbunterabtastung geht. :confused_alt: Das Handbuch von LG ist aber richfer Mist.
 
Im Handbuch habe ich bereits nachgeschaut, und ja, es ist bereits auf DP 1.4 eingestellt, da sonst kein 5k geht. Und ebenfalls ja, das Handbuch ist spärlich.
 
Ich habe heute einen neuen Treiber 416.94 installiert, und damit gehts nun, ich kann bei Nvidia Farbeinstellungen nun zwischen 8 und 10bit Farbtiefe wählen. Keine Ahnung, was da wieder das Problem war. Danke an alle für Eure Hilfe.
 
Zurück
Oben