Khaos-Thanathan
Lt. Junior Grade
- Registriert
- März 2024
- Beiträge
- 256
Freunde der Sonne,
ich hatte heute folgendes (m.E. völlig unnötiges) Problem, dessen Behebung ganze 3 Stunden gefressen hat: Vermutlich durch das letzte Windows-Update in Verbindung mit dem letzten Updates meines Fernsehers (ein LG OLED48C27LA, den ich als 2. Monitor nutze) hat sich heute automatisch Dolby Vision als HDR-Modus aktiviert. Das Problem daran ist, dass der Output wahrlich nicht schön war und einen extremen Lila-Stich hatte:
Aussehen sollte das - laut Screenshot - allerdings so:
Nach diversen Lösungsmöglichkeiten (Treibereinstellungen prüfen, Treiber nach DDU neu installieren, anderen HDMI-Port und anderes HDMI-Kabel probieren, etc. pp.) bin ich dann nach längerer Recherche darauf gestoßen, dass das Problem an aktiviertem Dolby Vision als HDR-Modus liegen könnte und dass man die Option manuell ausschalten muss, um zum normalen HDR10 zurückzukommen. Nach dem Ausschalten wird das Bild auf dem Fernseher auch wieder korrekt angezeigt.
Laut Recherche soll Dolby Vision - zumindest, wenn es funktioniert- visuell allerdings deutlich besser sein als herkömmliches HDR10. Aus dem Grund wäre ich für Informationen dankbar, wie sich Dolby Vision vernünftig nutzen lässt. Laut Produktdatenblatt sollte mein Fernseher Dolby Vision unterstützen und hat bei aktiver Dolby-Vision-Funktion in Win11 auch Dolby Vision anstelle von HDR als Output angezeigt. Laut Recherche sollte meine RTX 4080 Dolby Vision ebenfalls unterstützen. Aus dem Grund wundert es mich, dass Dolby Vision nicht funktioniert. Das HDMI-Kabel, das ich nutze, ist HDMI 2.1b und Ultra High Speed (48 Gbit/s) zertifiziert, sollte Dolby Vision eigentlich auch unterstützen, oder? Wisst Ihr ggf., wo das Problem liegen könnte?
Für Zuschriften danke ich im Voraus.
ich hatte heute folgendes (m.E. völlig unnötiges) Problem, dessen Behebung ganze 3 Stunden gefressen hat: Vermutlich durch das letzte Windows-Update in Verbindung mit dem letzten Updates meines Fernsehers (ein LG OLED48C27LA, den ich als 2. Monitor nutze) hat sich heute automatisch Dolby Vision als HDR-Modus aktiviert. Das Problem daran ist, dass der Output wahrlich nicht schön war und einen extremen Lila-Stich hatte:
Aussehen sollte das - laut Screenshot - allerdings so:
Nach diversen Lösungsmöglichkeiten (Treibereinstellungen prüfen, Treiber nach DDU neu installieren, anderen HDMI-Port und anderes HDMI-Kabel probieren, etc. pp.) bin ich dann nach längerer Recherche darauf gestoßen, dass das Problem an aktiviertem Dolby Vision als HDR-Modus liegen könnte und dass man die Option manuell ausschalten muss, um zum normalen HDR10 zurückzukommen. Nach dem Ausschalten wird das Bild auf dem Fernseher auch wieder korrekt angezeigt.
Laut Recherche soll Dolby Vision - zumindest, wenn es funktioniert- visuell allerdings deutlich besser sein als herkömmliches HDR10. Aus dem Grund wäre ich für Informationen dankbar, wie sich Dolby Vision vernünftig nutzen lässt. Laut Produktdatenblatt sollte mein Fernseher Dolby Vision unterstützen und hat bei aktiver Dolby-Vision-Funktion in Win11 auch Dolby Vision anstelle von HDR als Output angezeigt. Laut Recherche sollte meine RTX 4080 Dolby Vision ebenfalls unterstützen. Aus dem Grund wundert es mich, dass Dolby Vision nicht funktioniert. Das HDMI-Kabel, das ich nutze, ist HDMI 2.1b und Ultra High Speed (48 Gbit/s) zertifiziert, sollte Dolby Vision eigentlich auch unterstützen, oder? Wisst Ihr ggf., wo das Problem liegen könnte?
Für Zuschriften danke ich im Voraus.