4K@60Hz+HDR ohne Chroma Subsampling funktioniert - warum?

Bright0001

Commander
Registriert
Juli 2011
Beiträge
2.547
Moin zusammen,

ich hab da eine eher ungewöhnliche Frage: Ich nutze schon seit 2015 nen 4K Fernseher als Monitor, und hab es damals irgendwie geschafft Dinge so einzustellen, dass ich 4K@60Hz ohne Chroma Subsampling (oder zumindest ohne sichtbare Artefakte) nutzen konnte und auch genutzt habe. Jetzt bin ich auf nen LG C9 gewechselt und hatte gleiches Spiel: Chroma Subsampling machte Texte recht hässlich (mit fuzzeligem gelben Rand), doch nach einigem Ausprobieren läuft mein Windows jetzt in 4K mit 60Hz + HDR über eine 1080, ohne dass es (scheinbar) zu Chroma Subsampling kommt (siehe Bild). Meine Frage ist jetzt: Warum funktioniert das überhaupt über HDMI 2.0? Ich dachte das wäre allein wegen der Bandbreite nicht möglich?

Mir ist klar, dass es am einfachsten wäre in alle Einstellungen einzusteigen und diese zu überprüfen, aber davor ich hab ich scheu, weil ich die Befürchtung habe, dass ich es dann nicht mehr hierher "zurück schaffe". Vielleicht hat ja jemand ähnliches Bild. :D

EDIT: Noch ein paar Bilder hinzugefügt.
 

Anhänge

  • IMG_20200407_125528.jpg
    IMG_20200407_125528.jpg
    2,2 MB · Aufrufe: 276
  • 2020-04-07_13h20_37.png
    2020-04-07_13h20_37.png
    22,9 KB · Aufrufe: 212
  • 2020-04-07_13h20_18.png
    2020-04-07_13h20_18.png
    305,5 KB · Aufrufe: 198
  • 2020-04-07_13h19_50.png
    2020-04-07_13h19_50.png
    56 KB · Aufrufe: 229
Die Datenrate kannst Du Dir hier ausrechnen.

Bei 3840 x 2160 mit 60Hz, 8Bit und 4:4:4 bist Du mit 17,82 Gbps genau im Bandbreitenlimit von HDMI 2.0.
 
  • Gefällt mir
Reaktionen: Bright0001
Ich kriege auf meinem LG C9 auch alle Einstellungen so hin wie du sie angibst. Nur wenn man 120 Hz und HDR will, muss man auf FHD zurück.

Moment, jetzt wo ich nochmal drüber nachdenke, war es eigentlich notwendig, bei HDR+60 Hz auf 4:2:0 zurückzustellen. Zumindest um Weihnachten herum habe ich das so gemacht. Habe mittlerweile aber auch auf neuere Win10-Versionen geupdatet. Aktuell geht es jedenfalls so wie bei dir, meine ich zumindest.
 
Passt doch genau.
10bit bzw 8bit 120Hz funktioniert halt nicht, da hat DP 1.4 noch einen Vorteil gegenüber HDMI 2.0.
 
Nein, korrekterweise sieht man ja auch 8bit oben im Screenshot eingestellt. Dithering erzeugt neue Farben durch vorhandene Farben also keine größere Farbtiefe
 
Wie gut 8bit mit Dithering aussehen können, kann man z.B. an diesem Screenshot von GTFO sehen (Quelle: GTFO PR Kit).
Das Game erzeugt seine Atmosphäre durch viel Nebel, der auf 8bit ziemliches Banding verursachen würde. Um das zu verhindern wird ein stochastisches Dithering eingesetzt.
 
Danke für die Antworten, jetzt bin ich schlauer. Gibt tatsächlich auch Meinungen dass ein 8bit dithering teilweise sogar besser aussehen kann als ein natives 10 Bit Signal, wobei es mir schon absolut ausreicht, dass ich mit diesen Einstellungen ne klasse Bildqualität ohne Artefakte oder nem Limit auf 30Hz hab. Warten wir mal auf HDMI 2.1 und schauen dann was man mit HDMI 2.1 noch rausholen kann (neben den offensichtlichen 4K@120Hz). :)
 
Mit HDMI 2.0 ist bei 3840 × 2160, 4:4:4 und 60 Hz bei 8 Bit Schluß. Siehe diese wunderbare Tabelle in der englischen Wiki:

hdmi2.0uhd60hz8bit.png


Mit 10-Bit-HDR verschiebt sich das ein wenig. Da reicht es bei 4:4:4 nur noch für 50 Hz. 60 gehen nur, wenn man auf 4:2:2 runterschaltet:

hdmi2.0uhd60hz10bit.png
 
Zurück
Oben