Funktioniert HDMI Deep Color ähnlich wie GSync (VRR) nicht über USB-C zu HDMI 2.1? Signal nur bis zu 60 Hz, keine 100-120 Hz! RTX 2080 Ti -> LG C2

auch da ists nicht ganz garantiert.. kann klappen, muss aber nicht die bandbreite ist schlicht viel zu gering.

Ah @Drewkev war flinker
 
Ihr wart hier gerade tatsächlich äußerst flinke Tipper, erstmal Danke dafür soweit. :)

Dann ließt es sich jetzt aber leider doch so, als könnte ich das selbst mit einem aktiven Wandler vergessen... :(

Chroma-Subsampling kommt auf keinen Fall in Frage! 8 bit, okay, ich sehe da bisher eh keinen Unterschied zu 10 bit.

Ich melde mich vielleicht noch einmal, wenn ich es hier mit dem HDMI 2.1 Notebook getestet habe...
 
ist ein marketing gag. so wie ultra high iops SSDs als Gaming ssds zu verkaufen :D
Wenig mehrwert, mehr Geld
 
Ich habe übrigens meinen Beitrag bezüglich der Bandbreite editiert.

Serk schrieb:
Naja, wie gesagt, GSync soll mir egal sein, aber RGB 4:4:4 in 8/10 bit hätte ich gerne in 120 Hz @ Ultra HD.
Auch 4K120Hz@8bit mit 4:4:4 ist ohne jegliche Kompression leider nicht möglich. Ob Kompression bei solch aktiven Adapter funktioniert, weiß ich leider nicht.
 
Alle diese DP auf HDMI 2.1 Adapter brauchen für 4K120 DSC, das muss die GPU also können. Aber 4:4:4 funktioniert damit. Ich habe leider noch nie DSC in Aktion gesehen, kann daher nicht beurteilen, ob es einen leichten Qualitätsverlust mit sich bringt.

Alle diese Adapter können kein HDMI VRR oder Gsync.

Ohne Adapter kann der CX/C1/C2 über HDMI 2.0 maximal 4K120 8 Bit 4:2:0
 
  • Gefällt mir
Reaktionen: style2k6 und Serk
Ich habe jetzt mal mein RTX 3000 Notebook mit dem neuen HDMI 2.1 Kabel von Amazon am TV getestet. Laut NVIDIA-Systemsteuerung kann ich bis zu 12 bit einstellen, was natürlich keine nativen 12 bit darstellen dürfte, aber es wundert mich trotzdem, dass es da so drin steht, weil eigentlich nur 10 bit gehen sollten (und das soweit ich verstanden habe auch nur 8 bit + FRC darstellt). Das war/ ist am PC allerdings genauso, nur, dass ich jetzt tatsächlich 120 Hz in Ultra HD nutzen kann. Immerhin funktioniert das Amazon Basiscs Kabel so wie es soll, zumindest bisher.
 
Zuletzt bearbeitet:
Wie cvzone sagt, brauchen vollwertige HDMI 2.1 Adapter, die die Bandbreite von DP 1.4 (~25GBit/s) übersteigen DSC zur Kompression der Daten.
Die RTX 2000 Reihe sollte DSC können.

Der Maxonar Adapter wird auf Amazon explizit mit den 48 GBit/s von HDMI 2.1 beworben, so dass der Händler sich eigentlich nicht rauswimmeln kann, bezüglich, dass HDMI 2.1 alles abdeckt und wenn der Adapter nur HDMI 2.0 Geschwindigkeit könnte, es trotzdem noch ok ist, den als HDMI 2.1 Adapter zu bewerben (was es technisch gesehen ist, HDMI 2.1 hat offiziell alle anderen Versionen abgelöst. Offiziell muss man mit TMDS 18GBit/s und FRL 40GBit/s, 48GBit/s etc unterscheiden).

Aber der Adapter ist verdächtig kompakt, im Vergleich zum Club3D Adapter der definitiv kann, was er verspricht.

Mein Frage ist jetzt, ob etwas mit der Kompression nicht klappt (ich hatte gerade erst Nvidia Treiber Bugs im Zusammenhang mit DSC), es sonstige Bugs mit Nvidia gibt, oder ob der Hersteller dreißt lügt.

Grundsätzlich ist 4K120Hz auch mit HDMI 2.0 zu erreichen, bei 4:2:0 Chroma Subsampling. Aber wegen der mehrfachen Erwähnung der vollen HDMI 2.1 FRL Geschwindigkeit wäre dass aber weit über trickreiches Marketing hinaus.

Nebenbei sind alle Adapter von USB-C auf HDMI aktive Adapter, auch wenn es nur auf HDMI 1.4 oder 2.0 ist. Es gibt zwar einen Standard für HDMI durch USB-C aber der wurde bisher noch nirgendwo mit PCs zusammen genutzt und scheint so ziemlich tot zu sein.

Bei dem Cable Matters Kabel (einer Marke die ich eigentlich mehr vertraue) steht sogar eARC in den Bildern zu den Auflösungen und den 48GBit/s. Das kann nur mit HDMI-HDMI Kabeln gehen, durch USB-C geht das nicht, da wird es also nochmal doller.

Auf der anderen Seite sind die Bewertungen auf Amazon komplett durcheinander und scheinbar für einige andere Produkte. Also vllt ist auch Amazon schuld weil sie fälschlicherweise verschiedene Angebote zusammengelegt haben.

Zum Thread-Titel: Deep Color ist Marketing Sprech für > 8 Bit Farbtiefe und HDR Color Space. Solange die Bandbreite ausreicht und GPU sowohl als auch Display das können, kann man das zuschalten. Wie viel Bandbreite gebraucht wird hängt stark vom Monitor ab und die Adapter können da auch noch mitmischen, deshalb könnte ich nicht zuverlässig sagen, ob es garantiert wäre, dass 4K120 mit DP 1.4+DSC Adaptern auf HDMI 2.1 garantiert immer auch 10 Bit erlauben.

Ich habe hier einen DSC Monitor und a) man sieht es nicht, zumindest nicht ohne einen direkten Vergleich nebendran (den ich nicht habe). Aber auf der anderen Seite habe ich mit Intel und Nvidia GPU schon leicht andere Limits gesehen, welche Auflösungen denn noch gehen. Ich könnte mir gut Vorstellen, dass mit manchen Monitoren 10 Bit bei 4:4:4 4K120 verweigert wird, weil es eben nicht nur durch den HDMI 2.1 durch muss, sondern eben auch komprimiert durch den alten DP.

Edit:
Die offizielle Cable Matters Seite bestätigt aber die Angaben von Amazon, dass das ein echter HDMI 2.1 Adapter sein soll...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cvzone, Serk und madmax2010
@Ray519 Danke für deinen umfangreicheren Beitrag. :)

Was DSC betrifft, habe ich bisher eigentlich auch nur Gutes gehört, also, dass man es nicht wirklich sehen können soll. Wäre für mich absolut in Ordnung, wenn es denn liefe. Im Moment schaut es wohl so aus, als bliebe ich bei 60 Hz erstmal "hängen", bis der PC ein Upgrade bekommt... :(

Wirliches Vertrauen war/ ist bei den Adaptern nicht da. Und wenn über USB-C auch nicht mehr ankommt als über DisplayPort (weil es auch nur ein DisplayPort ist), macht es Sinn, dass da andere Adapter-/Kabel nicht viel mehr bringen können. Nur komisch, dass trotzdem manche behaupten, es würde laufen, aber vielleicht verwenden die tatsächlich alle Chroma-Subsampling, auch, wenn sie es nicht explizit dazu sagen.
 
Serk schrieb:
Was DSC betrifft, habe ich bisher eigentlich auch nur Gutes gehört,
Optisch völlig ok, aber extrem komplex, neu, verbuggt und die aktuelle Generation an Treibern gibt einem nicht die Diagnose Möglichkeiten an die Hand, um bei Zicken auch nur ansatzweise zuzuordnen, wer an dem Problem schuld ist und die anderen Komponenten nicht versteht.
Schau mal in die Erata zu den letzten 2 Nvidia Treibern rein, ob da was passendes berichtet wird oder auch das Forum von Nvidia.
Weil mein DSC Monitor blieb zB mit den 510-511 Treibern teilweise komplett schwarz. Erst mit 512.xx geht es wieder. Während es an 1000er GPUs, die noch kein DSC können dauerhaft ging...
 
Es könnte natürlich sein, dass da auch etwas verbugged ist, da müsste ich mal ältere Treiber testen.

Ich befürchte nur, dass das am Ende Aufwand für nichts ist.
 
Aber der entsprechende Support am TV ist an und der Eingang dort ist der richtige? Mit der RTX 30 und nativem HDMI 2.1 samt Kabel mal testen und in den Windows Erweiterten Anzeigeeinstellungen mal checken, was für eine Verbindung tatsächlich genutzt wird. Ansonsten kannst du mit CRU die EDID Infos auslesen, da drin kann man sehen, ob der TV überhaupt angibt, dass er die volle Bandbreite kann (also ob vom TV aus alles passt).

CRU kann die EDID Infos auch als Binärdatei exportieren und ich schaue rein, wenn du daraus nichts siehst. Ich bin sowieso neugierig, wie die Daten für HDMI 2.1 aussehen. Ich habe noch keinen Monitor der das kann.
 
Serk schrieb:
weil eigentlich nur 10 bit gehen sollten (und das soweit ich verstanden habe auch nur 8 bit + FRC darstellt)
Es gibt echte 10 Bit und 8 Bit + FRC. Frame Rate Control nutzen Monitore die keine echten 10 Bit darstellen können, um dem Auge zusätzliche Farben vorzugaukeln.

Der LG C2 kann aber echtes 10 Bit. 12 Bit geht auch, weil der LG jetzt die vollen 48 Gbit/s Bandbreite hat. Der CX und C1 war auf 40 beschränkt, sodass nur 10 Bit möglich war.

Da der C2 aber nur ein 10 Bit Panel hat, bringt die 12 Bit Einstellung nur in der internen Verarbeitung minimale optische Vorteile.
 
1648665596621.png

CAC-1085 ist exakt der HDMI 2.1 Adapter von Club3D, ist also ein Nvidia Treiber Bug...

Ich überlasse es dir in den Release Notes zurück zu suchen, welche ältere Version als 512.xx noch geht, wenn überhaupt.
 
Ray519 schrieb:
Deep Color ist Marketing Sprech für > 8 Bit Farbtiefe
Ja, allerdings verbirgt sich hinter dieser Einstellung bei LG auch die 4K60 4:2:2 bzw. 4K120 4:2:2 Einstellung (mit PC Label für den Eingang auch 4:4:4)

Ist dies nicht aktiv läuft der TV in einem HDMI 1.4 Kompatibilitätsmodus mit maximal 4K60 4:2:0 ohne HDR.
Ergänzung ()

Serk schrieb:
Chroma-Subsampling kommt auf keinen Fall in Frage
Falls du das noch nicht gemacht haben solltest, musst du den Eingang im LG Dashboard als "PC" einstellen, sonst gibt er kein RGB 4:4:4 aus.
 
Ray519 schrieb:
CAC-1085 ist exakt der HDMI 2.1 Adapter von Club3D, ist also ein Nvidia Treiber Bug...
Huch. Aber ob das dann in gleicher Weise für meine beiden Adapter-/ Kabel gilt, ist eine andere Frage.

cvzone schrieb:
im LG Dashboard als "PC" einstellen
Jup, so habe ich es gemacht. Und händisch alle Einstellungen einmal durchgegangen/ kontrolliert.

cvzone schrieb:
Der LG C2 kann aber echtes 10 Bit.
Hm. Da war mein letzter Kenntnisstand ein anderer, der nur 8 bit + FRC bescheinigt hat.

Es ist "nur" das 42" Modell, also auch das Panel, das nicht ganz so hell ist. Vielleicht verhält es sich hier anders.
 
Hi. Bzgl. deines Notebooks müsstest du mal googlen, RTX 3000 im Laptop bedeutet leider nicht zwangsläufig volles HDMI 2.1 Featureset, die OEM sparen wohl gerne mal bei der internen Schaltung bzw. dem HDMI-Port. Das wurde im Luxx schon häufiger diskutiert.

Beispiel
 
Serk schrieb:
Aber ob das dann in gleicher Weise für meine beiden Adapter-/ Kabel gilt, ist eine andere Frage.
So lange gibt es diese Adapter noch nicht, die nutzen alle dieselbe Technik, da wird es nicht soo viele Chips geben, die da drin stecken könnten.


Dann musst du halt mal mit den anderen Schritten weitermachen und wie ich sagte in Windows checken, ob dein Notebook nur HDMI 2.0 mit 4:2:0 nutzt oder ob es da geht und deine optischen Probleme woanders herkommen. Und vllt auch das Notebook nennen.

Und danach eben mit den EDID Daten weitermachen.
 
  • Gefällt mir
Reaktionen: cvzone
Iceman021 schrieb:
Bzgl. deines Notebooks müsstest du mal googlen
Ausnahmsweise bestätigt der Notebook-Hersteller HDMI 2.1 für mein RTX-3000-Modell. Es betrifft auch nur gelbe/ orange Flächen, die links eine rote und rechts eine grüne Kontur von etwa einem Pixel Breite erhalten. Ich denke, das ist leider eine unschöne Subpixel-Eigenheit des Panels und kein Versagen des Anschlusses bzw. Kabels. :(
Ray519 schrieb:
ob dein Notebook nur HDMI 2.0 mit 4:2:0 nutzt
Wie ich geschrieben habe, ist es in der NVIDIA-Systemsteuerung zumindest so eingestellt (RGB 4:4:4, 12 bit), das Signal kommt meines Erachtens nach auch so durch. Bis auf die besagten gelben Schaltflächen (am Beispiel der Amazon Bestell- oder auch Produktseite), kann ich den "3D-Effekt" nirgends ausmachen und das Bild ist top.
cvzone schrieb:
Nein, definitiv echte 10 Bit
Immerhin. Leider gibt es hierzu im Internet immer wieder widersprüchliche Aussagen (selbst hier im Forum).
 
Zuletzt bearbeitet:
hallo leute welches kabel benötige ich genau für den c2 + der Rtx 3090? für 4k 120 hz Hdr usw
 
Zurück
Oben