MeisterOek
Captain
- Registriert
- Nov. 2014
- Beiträge
- 3.128
Hi,
ich habe heute ein neu gekauftes 48Gbit Glasfaserkabel an meinen neuen TV (LG G1) und die GTX 1080 angeschlossen. Ich wollte dann schnell mal eben die Auflösung und Farbe einstellen und musste feststellen, dass ich nie 10Bit wählen kann. Bei 60Hz kann ich mit Ausgabe-Farbformat nur 8Bit wählen, bei 30Hz kann ich 8 oder 12Bit wählen. Warum keine 10Bit?
Habe den Nvidia Treiber 471.96. Der TV ist auf Spiele-Optimierer eingestellt.
Was muss ich wo einstellen, um die 10 Bit bei 60Hz herzubekommen? Des weiteren steht beim LG im Spieleoptimierer VRR Off, obwohl in den Nvidia-Einstellungen G-Sync beim LG aktiviert ist.
Ich dachte, dass Nvidia irgendwann 10 Bit aktiviert hat und nur "früher" die Wahl zwischen 8 und 12 bestand.
ich habe heute ein neu gekauftes 48Gbit Glasfaserkabel an meinen neuen TV (LG G1) und die GTX 1080 angeschlossen. Ich wollte dann schnell mal eben die Auflösung und Farbe einstellen und musste feststellen, dass ich nie 10Bit wählen kann. Bei 60Hz kann ich mit Ausgabe-Farbformat nur 8Bit wählen, bei 30Hz kann ich 8 oder 12Bit wählen. Warum keine 10Bit?
Habe den Nvidia Treiber 471.96. Der TV ist auf Spiele-Optimierer eingestellt.
Was muss ich wo einstellen, um die 10 Bit bei 60Hz herzubekommen? Des weiteren steht beim LG im Spieleoptimierer VRR Off, obwohl in den Nvidia-Einstellungen G-Sync beim LG aktiviert ist.
Ich dachte, dass Nvidia irgendwann 10 Bit aktiviert hat und nur "früher" die Wahl zwischen 8 und 12 bestand.