den neuen monitor bestmöglich nutzen

ed_lumen

Captain
Registriert
März 2008
Beiträge
3.619
mein erster hardware-kalibrierbarer monitor ist der benq sw272q (1440p). mein MB ASRock PG Riptide Intel Z690 hat leider weder DP noch USB-C mit DP-Alt-Mode, ich muß mit meiner onboardgrafik hdmi verwenden. funktioniert soweit.

ich bin aber nach wie vor nicht sicher, ob ich so echte 10bit des monitors per hdmi erreiche (MB-pdf: „Supports HDMI 2.1 TMDS Compatible with max. resolution up to 4K x 2K (4096x2160) @ 60Hz“).

sollte ich eine grafikkarte benutzen? ich bräuchte sie, wenn überhaupt, nur zur bestmöglichen bilddarstellung, keine games etc.

ich würde ggf. nur eine einfache und geräuschlose für DP 1.4 haben wollen mit niedrigstmöglichem stromverbrauch? wie hoch wären wohl ungefähr die jährlichen zusatzkosten?
 
Zuletzt bearbeitet:
HDMI 2.1 kann problemlos 10 Bit am LCD (siehe auch RTINGS Artikel) und beim Monitor (HDMI 2.0) steht in den Specs nichts dass 10 Bit nur ueber DP moeglich ist. Die Frage ist eher was Deine unbekannte CPU maximal unterstuetzt. Kannst Du im Treiber 10 Bit auswaehlen?
Falls die CPU 10 Bit unterstuetzt und Du unbedingt DP moechtest dann kannst Du bei Deinem Board eine Thunderbolt 4 AIC Karte nachruesten. Kostet weniger als eine GPU und Du hast dann Auch ein 40 Gb/s Schnittstelle. Qualitaetsmaessig sollte es aber keinen Unterschied zu HDMI machen. ==> DP Signal muss bei dieser Karte von extern zugefuehrt werden, braeuchte also eine zusaetzliche GPU.
 
Zuletzt bearbeitet:
System -> Bildschirm -> Erweiterte Anzeige, dann sieht du, ob 8 oder 10 bit:

2025-08-19 05 28 51_edited.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: feris
ed_lumen schrieb:
ich bin aber nach wie vor nicht sicher, ob ich so echte 10bit des monitors per hdmi erreiche (MB-pdf: „Supports HDMI 2.1 TMDS Compatible with max. resolution up to 4K x 2K (4096x2160) @ 60Hz“).
Dein Monitor benötigt trotz 10bit deutlich weniger Bandbreite als das, knapp die Hälfte.

"HDMI 2.1 TMDS" .. wenn ich das schon lese.
 
Zuletzt bearbeitet:
vielen dank schonmal! ich habe einen 12700er-chip. im intel grafikcontroller kann ich zwischen 8, 10 und 12bit wählen (meinst du das mit einstellung im treiber?) - ohne daß ich bisher unterschiede in meinen bildern etc. feststellen konnte. ich benutze überall adobeRGB. außer für bildbearbeitungen benutze ich den pc etc für TV (pci sat karte) und filme (meist via powerDVD).

ich will ganz und garnicht unbedingt DP, sondern nur sicher 10bit meines monitors sehen. und da ich bisher zwar ein prima bild habe, aber eben keinen unterschied erkenne zu 8bit, wollte ich mich rückversichern. gibt es irgendeine art von test, die mich erkennen läßt, ob mein monitor 8 oder 10bit darstellt?

was würde ich mit einer thunderbolt-karte (auch einer asus ex4?) gewinnen, wozu verhelfen mir 40 gb/s?
Drewkev schrieb:
"HDMI 2.1 TMDS" .. wenn ich das schon lese.
diese andeutung versteh ich nicht ...
 
ed_lumen schrieb:
ich will ganz und garnicht unbedingt DP, sondern nur sicher 10bit meines monitors sehen. und da ich bisher zwar ein prima bild habe, aber eben keinen unterschied erkenne zu 8bit, wollte ich mich rückversichern.
Warum eigentlich kein DisplayPort? Ist ja nicht umsonst der Standard bei PC-Monitoren.

ed_lumen schrieb:
gibt es irgendeine art von test, die mich erkennen läßt, ob mein monitor 8 oder 10bit darstellt?
Steht doch in #3.

ed_lumen schrieb:
diese andeutung versteh ich nicht ...
Egal, ist für deinen Fall eh nicht relevant.
 
in #3 steht nur die einstellung, die bei mir sogar bis 12bit geht. das heißt ja noch nicht, ob irgendein flaschenhals 10bit verhindert. ich würde den unterschied gerne mal an einem bild o.ä. wirklich sehen (so wie es mir leicht möglich ist, den unterschied eines in 8 oder 16bit bearbeiteten bildes zu erkennen, zb in einem tonwertverlauf im himmel). warum nicht DP? hat mein MB, wie in #1 geschrieben, nicht.
 
@Drewkev warum kann ich dann dort 12bit einstellen, zu was zumindest der monitor gar nicht fähig ist?
 
Wenn es einstellbar ist, dann sieht das so aus.
Ich erinnere mich nur nicht mehr, wo ich das damals umgestellt habe, aber ich denke das war genau hier....

Bin mal gespannt was du sagst nach der Umstellung.
Viele sind der Meinung das man es nicht sieht!

Screenshot 2025-08-19 113433.png
 
ed_lumen schrieb:
@Drewkev warum kann ich dann dort 12bit einstellen, zu was zumindest der monitor gar nicht fähig ist?
Du kaufst dir extra einen professionellen Monitor aber weißt nicht, was der so kann? Nicht böse gemeint.

Das liegt an seiner 16-Bit-3D-LUT, der Monitor kann ein 12-Bit Signal empfangen und verarbeiten, auch wenn er es am Ende an sein 10-Bit Panel ausgibt. Das ist übrigens kein Alleinstellungsmerkmal, viele professionelle Monitore dieser Art haben eine LUT.
 
was also wäre gewonnen durch die einstellung auf 12 bit? nichts, richtig?

conclusio: auch niemand sonst sieht unterschiede zwischen 8 und 10 bit. und hdmi reicht aus. richtig?
 
über antworten, die über die hier so verbreitete schlaumeierei hinausgehen, freue ich mich noch immer. zusammenfassend geht es darum, ob die vorhandene config so für 10bit bei hardware-kalibration genügt (o-benq-hdmi-kabel, onboard-grafik etc), auch wenn ich sie bisher in der praktischen arbeit nicht wahrnehmen konnte. danke!
 
ed_lumen schrieb:
was würde ich mit einer thunderbolt-karte (auch einer asus ex4?) gewinnen, wozu verhelfen mir 40 gb/s?
Das Bildsignal muss bei diesen Thunderbolt Karten extern ueber DP zugefuehrt werden. In Deinem Fall deshalb keine Option (habe meinen Beitrag entsprechend korrigiert). Hatte irrtuemlich angenommen dass sie direkt das Bild der eingebauten GPU ausgeben kann.
 
Genau. Die Thunderbolt Karte hat 2 DP Eingaenge und kann das Signal dann ueber USB-C ausgeben. Da bei Deinem Setup aktuell keine DP Anschluesse verfuegbar sind also keine Option.
 
Zurück
Oben