Brrr schrieb:
Ein Link oder so was für Nachteile dieses Format hat?
Das wird relativ klar, wenn man sich mal den
Wikipedia-Artikel durchliest. In Kurzform:
RGB überträgt getrennt die 3 Grundfarben Rot, Grün und Blau. Genau so brauchen das auch LCD- und OLED-Displays, die haben ja immer 3 Subpixel in Rot, Grün und Blau. Nahezu alles, was an Computergrafik entsteht, ist in RGB. YCbCr arbeitet komplett anders. Hier hast du nicht Rot, Grün und Blau, sondern ein Helligkeitssignal (Y), und zwei Farbsignale (Cb, Cr). Das Helligkeitssignal ist effektiv ein Schwarzweißbild, und die Farbsignale sind die Differenzbilder zum Schwarzweißbild zu blau (Cb) und rot (Cr). Wurde ursprünglich für die Datenkompression entwickelt, da sich ein solches YUV-Signal wesentlich effizienter komprimieren lässt als ein RGB-Signal. Daher findet es Anwendung bei JPEG-Bildern und nahezu allen Videoformaten.
Da die Displays aber ein RGB-Signal brauchen, muss man jedes YCbCr-Signal nach RGB konvertieren. Und diese Konvertierung ist nicht verlustfrei, da die Gleitkommawerte auf Integerwerte gerundet werden. Wenn ich jetzt eine Computergrafik habe (das kann ein Spiel sein, oder auch nur der Desktop), muss diese Grafik zunächst von RGB nach YCbCr konvertiert werden, um dann im Display wieder nach RGB konvertiert zu werden. Verluste aus 2 Konvertierungen, die komplett vermeidbar gewesen wären, wenn man direkt in RGB übertragen hätte.
Ein weiteres Problem sind die beiden Wertebereiche, die es bei YCbCr gibt, es gibt einmal den vollen Bereich (0-255) und einmal den begrenzten Bereich (16-235). Der Monitor muss entsprechend den richtigen Bereich einstellen, den auch die Grafikkarte ausgibt, ansonsten ist das Bild entweder zu milchig oder zu steil vom Kontrast. Die Automatik funktioniert da nicht immer, auch hier im Forum war mal jemand der Meinung, dass AMD-Grafikkarten einfach von Natur aus ein milchigeres, konstrastärmeres Bild ausgeben im Vergleich zu Nvidia-Karten, dabei hat seine AMD-Karte einfach den begrenzten Bereich ausgegeben, und sein Monitor hat den vollen Bereich interpretiert. Lässt sich mit RGB komplett vermeiden.
YCbCr macht Sinn, wenn man Videos abspielen möchte, denn diese liegen ja schon in diesem Format vor, daher arbeiten Bluray-Player oder Streaming-Boxen in YCbCr, damit hier nur eine Umwandlung nach RGB im Display stattfinden muss.
Das grundsätzliche Funktionsprinzip von YUV wurde damals entwickelt, um das Farbfernsehen abwärtskompatibel zum Schwarzweißfernsehen zu machen, damit man nicht 2 Signale aussenden muss. Ähnlich wurde ja auch Stereo beim UKW-Rundfunk umgesetzt, als Monosignal und Differenzsignal, nicht diskret links und rechts. YCbCr ist quasi die digitale Variante davon und hat den Vorteil, dass man das Chroma-Signal sehr einfach in der Auflösung reduzieren kann (4:2:2 oder 4:2:0), was irre viel Speicherplatz einspart. Macht aber bei der Signalübertragung zum Display keinen Sinn, wenn die Bandbreite für ein unkomprimiertes RGB-Signal vorhanden ist.
Brrr schrieb:
Hat mein Adapter. Cablematters irgendwas. Hängt angeblich von der Firmware ab, aber geht bei all meinen Cablematters Adaptern die ich hier habe. Edit: OK, glaube nicht VRR, aber Freesync funktioniert mit dem LG TV.
Aber funktioniert das auch wirklich? Ich habe 2 DP-zu-HDMI-2.1-Adapter, einen Cable Matters und den oft empfohlenen Club3D. Beide haben eine Spezialfirmware, die VRR (also GSync/Freesync) aktiviert. Mit beiden Adaptern gelingt es mir mit dieser Firmware auch, GSync/Freesync im Treiber einzustellen. Mein LG C3 zeigt das auch in seinem geheimen VRR-Menü an. Aber sobald ein Bild auch mal wirklich unter die 120 Hz geht und somit die VRR-Range ausnutzen möchte, wird einfach nur das Bild schwarz. Es funktioniert nicht.