M1ximili1n
Lt. Junior Grade
- Registriert
- Sep. 2018
- Beiträge
- 438
Hallo,
Mein neuer Monitor unterstützt sowohl HDMI als auch DisplayPort, da zweiteres angeblich besser ist, möchte ich es natürlich verwenden.
Fakt ist: Der Monitor läuft einwandfrei, aber sobald ich das DisplayPort-Kabel anschließe und im Gegenzug das HDMI-Kabel wegnehme bekomme ich eine Fehlermeldung. Der PC erkennt das Kabel, aber ich bekomme kein Signal und der Bildschirm ist Schwarz.
Jetzt Frage ich mich ob es überhaupt nötig ist sich darüber den Kopf zu zerbrechen. HDMI hat etwas weniger Bandbreite aber macht das sich überhaupt bemerkbar? z.B. habe ich weniger Input-Lag z.B. oder macht das die 10-Bit Einstellung im NVIDIA Grafikmenü überhaupt erst möglich? Ich kann in der Systemsteuerung unter "Auflösung ändern" nur 8-Bit einstellen. Das Gerät hat "effektive 10-Bit" d.h. 8+FRC , keine Nativen, vllt. bin ich deshalb auf dem Holzweg.
Mein neuer Monitor unterstützt sowohl HDMI als auch DisplayPort, da zweiteres angeblich besser ist, möchte ich es natürlich verwenden.
Fakt ist: Der Monitor läuft einwandfrei, aber sobald ich das DisplayPort-Kabel anschließe und im Gegenzug das HDMI-Kabel wegnehme bekomme ich eine Fehlermeldung. Der PC erkennt das Kabel, aber ich bekomme kein Signal und der Bildschirm ist Schwarz.
Jetzt Frage ich mich ob es überhaupt nötig ist sich darüber den Kopf zu zerbrechen. HDMI hat etwas weniger Bandbreite aber macht das sich überhaupt bemerkbar? z.B. habe ich weniger Input-Lag z.B. oder macht das die 10-Bit Einstellung im NVIDIA Grafikmenü überhaupt erst möglich? Ich kann in der Systemsteuerung unter "Auflösung ändern" nur 8-Bit einstellen. Das Gerät hat "effektive 10-Bit" d.h. 8+FRC , keine Nativen, vllt. bin ich deshalb auf dem Holzweg.