• ComputerBase erhält eine Provision für Käufe über eBay-Links.

HDR vs 10 Bit

Gösn

Cadet 2nd Year
Registriert
Apr. 2024
Beiträge
19
Hallo,

Ich habe HDR eingestellt auf 1000nits das zeigt auch mein windows an bei 8 Bit wenn ich aber bei den Grafikeinstellungen (RX7800XT)
10 Bit einstelle ist HDR auf einmal deaktiviert obwohl es beim Bildschirm aktiv was samsung odyssey oled g8 34dg85suxen.

Kann beides nicht miteinander laufen gibt es nur entweder oder?

Danke

mfg
Chris
 
Mir war so als wenn HDR10, 10 Bit benutzt.
 
  • Gefällt mir
Reaktionen: zelect0r
Hab da was übersehen es sind eh 10 Bit bei HDR siehe Bild aber wenn ich die 10 Bit bei den Einstellungen einstelle bei dem Grafik Treiber verschwindet die die HDR Einstellung in Windows.

Danke
 

Anhänge

  • hdr.png
    hdr.png
    34,6 KB · Aufrufe: 117
Hab es jetzt ausprobiert lt anleitung und hab jetz maximale Helligkeit 2800 Nitz
Ergänzung ()

Spitzenhelligkeit AUS = 2800 Nits HDR-Spielsignal wird auf 400 Nits auf der Monitorhelligkeit tonegemappt

Spitzenhelligkeit HOCH = 2800 Nits HDR-Spielsignal wird auf 1000 Nits Monitorhelligkeit tonegemappt



Um also den richtigen HDR-1000-Nits-Modus auf diesem Monitor zu erreichen (der bei weitem am besten aussieht), empfehle ich, HDR10+ Gaming AUS, GameHDR AUS und Spitzenhelligkeit auf HOCH zu stellen.

Dann sollte die HDR-Kalibrierung von Windows auf einen Beschneidungspunkt von etwa 2800 Nits (2080-Wert auf dem Schieberegler) eingestellt werden, und die HDR-Kalibrierungen im Spiel sollten ebenfalls auf eine maximale Spitzenhelligkeit von 2800 Nits eingestellt werden (der Schiebereglerwert hängt vom Spiel ab).
 
Zuletzt bearbeitet:
Sonnenbrille nicht vergessen... ;)
Bei meinen läppischen 800 Nits brennen mir teils schon die Augen. :D

Wenn du AutoHDR nutzen möchtest, hier ein kleiner Hinweis:

Ich weiß, die Lösung ist nicht perfekt, aber mir hat es oft besser gefallen als SDR. Noch besser ist natürlich RenoDX, wenn verfügbar.

Viel Spaß!
 
Gösn schrieb:
Kann beides nicht miteinander laufen gibt es nur entweder oder?

Es gibt sowohl HDR8 als auch HDR10 sowie HDR12.
Wenn es seitens des Monitor unterstützt wird, wovon ich ausgehe, liegt es womöglich an der Bandbreite des zu übertragenden Kabels.

Ist es HDMI? Dann achte auf die Kabelqualität oder wechsele zu das weniger komplexe DisplayPort, insofern der Montor diese Option nicht ausschließlich per HDMI bereitstellt.

Meine Top-Empfehlung unter den Preis-/ Leistungssiegern ist das Stouchi 3m HDMI Kabel 8K 4K 120Hz Ultra HD 48 Gbit/s HDMI 2.1.

Dieses Kabel garantiert die Bandbreite für 3840x2160 @60Hz in 10-Bit. Das ist keine Selbstverständlichkeit. Die meisten Strippen taugen bloß für 30Hz, auch wenn sie mit angeblichen 60Hz werben, was sie in der Regel innterhalb des ersten Jahres noch zu liefern imstande sein können, doch sobald die anodische Oxidation in zu weit vorangeschrietten ist, sorgen sie nur noch für eine weniger taugliche Spezifikation oder für ein ständig ausfallendes Signal. Ein gutes Kabel muss der Anforderung, um diese es wirbt, für ein paar Jahre lang gewachsen sein. Nicht umsonst kosten die empfohlenen Derivate ein kleines Sümmchen.

Bei den Adaptern sieht es noch viel schlimmer aus. Ich kann sofort sagen, all das, was um 10 Euro oder so um sich wirbt, kann man für 3840x2160 @60Hz in 10-Bit vergessen: Es taugt nur für 3840x2160 @30Hz in 8-Bit; wobei ich auch mein Modell da habe, das diese Spezifikation in 10-Bit hinlegen kann, nämlich der MK-5749 von deleyCON. Wer einen DisplayPort-to-HDMI-Adapter wünscht, der die 3840x2160 @60Hz garantieren kann, ist mit mit dem folgenden HAMA-Adapter genau richtig, wenngleich der Preis eine abschreckende Wirkung hat:
https://www.hama.com/de/de/video-ad...4K058OziqmSjBQm1itYYwdstJuWF4HyfOM-UArkHqpIDV
Leider sind die 10-Bit nur dann möglich gewesen, wenn ich die Verbindung von einem Kabel per HDMI auf DisplayPort herstellte, also von HDMI auf HDMI über eine Zwischenschritt per DisplayPort. Direkt von DisplayPort auf HDMI habe ich bislang nur die 8-Bit erhalten. Das kann der der Modulation des LVDS-Protokolls auf das TMDS-Signal bedingt sein.

Ich bestellte mir einst diesen Adapter:
https://www.ebay.de/itm/388330686680
Das gelieferte Modell entspricht nicht dem aus der Abbildung, sondern ähnelt dem HAMA-Adapter auf geradezu täuschender Weise — was ich durchaus für positiv hervorhebe.
Bis auf die Aufschrift, diese der HAMA-Adapter mit sich bringt, fällt auf den ersten Blick nur ein Unterschied auf: Der Kabelmantel besteht aus einem gesleevten Geflecht, was mich von der Optik her durchaus mehr anspricht, auch wirkt der Mantel am Knicken nicht so steif wie sein HAMA-Pendant, jedoch, und kommen wir auf das wirklich Wichtige zu sprechen, die Signalstärke: Das maximal Mögliche, was ich aus diesem Adapter beziehen konnte, waren 3840x2160 @30Hz in 8-Bit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TPD-Andy, Gösn und qiller
Macht mein Monitor auch so. Bei 144Hz schaltet er in 8bit HDR, wenn ich HDR aktiviere. Erst mit 120Hz hab ich dann HDR10.
 
  • Gefällt mir
Reaktionen: Naru
Ich benutze displayport kabel oder ist hdmi besser ? Wenn dann kauf ich mir ein gutes DisplayPort kabel oder?
 
  • Gefällt mir
Reaktionen: Naru
Wenn man von den im Heimkino-Segment geltenden Features über HDMI absehen kann, diese allenfalls von einem PC zu einen digitallen AV-Receiver (Class-D, Class-T) ihren Nutzen haben, nämlich über das sogenannte "Consumer Electronics Control" (CEC), und man berücksichtigt, dass der DisplayPort seit der Version 1.1 auch zu den grundlegenden Features des TMDS-Protokolls befähigt ist, ausgenommen von den CEC-Features, welche eine bidirekionale Schnittstelle erfordern, was der DisplayPort nicht ist, oder den für Monitore nützlichen Black level (Schwarzwert), überwiegt an einem PC der DisplayPort, allein schon deswegen, weil die meisten Geräte dafür, wie Grafikkarten, diese Verbindungsart priorisieren: Bedauerlicherweise findet man an einer Grafikkarte nur noch einen einzigen HDMI-Port vor, den DisplayPort in dreimal.

Der Nachteil von DisplayPort ist in erster Linie seine unidirekionale Schnittstelle, weshalb die Geräte sich nicht gegenseitig ansteuern lassen, was in Kombination mit einem digitalen Audio-Verstärker sehr praktisch ist im Bezug auf die Kompatibilität mit Tonformaten und deren Codec-Spezifikationen. ARC ist so ein weiteres Feature, welches unter Heimkino-Geräten zum Einsatz kommt. Die Übertragung des Audio-Signals beherrscht der DisplayPort seit der Version 1.1 ebenso. Der normale PC-Nutzer wird mit dem DisplayPort keine Abstriche hinnehmen müssen. Vielmehr profitiert er davon, dass dessen LVDS-Protokoll sich in weitaus weniger komplex gibt, beispielsweise in Bezug auf die Signalstärke. Der große Vorteil des DisplayPort ist sein Feature namens "Display Stream Compression" (DSC). Dieses Feature erlaubt es, dass das LVDS-Protokoll die Signal-Bandbreite regulieren kann, sodass eine zugesicherte Verbindung ermöglicht wird. Inwiewiet sich eine solche Kompression auf die Bildqualität auswirken kann, dies obliegt wiederum der zur Verfügung stehenden Bandbreite, diese bei älteren Standards wie der Version 1.2 in deutlich geringer ausfällt. Einen solchen Effekt habe ich schon beobachten dürfen — nicht zum Guten hin. Das Bild kann Kompressionsartefakte aufweisen, diese sich besonders unter shcnellen Bildbewegungen zeigen. Auch können die Farbleuchtkraft sowie Tiefenschärfe eingeschränkt sein.

Summa summarum werden die meisten PC-Nutzer mit dem DisplayPort ihren Freund gefunden haben, aufgrund der weniger komplexen Signalstärke, diese das TMDS-Protokoll für HDMI erfordert. Der DisplayPort ist sozusagen die preisgünstige Verbindungsart, weil schon Kabel von der Stange genügen können, um eine gewünschte Monitor-Spezifikation zu erfüllen.

Leider Gottes kann man den heimischen PC auf fünf Metern oder mehr nicht mit einem kostengünstigen DisplayPort-Kabel zu einem Fernseher verbinden, weil solche Geräte ausschließlich auf den HDMI-Standard setzen. Die Fernseher verstehen das LVDS-Protokoll naturgemäß nicht, sodass der Griff zu einem teuren HDMI-Kabel unumgänglich scheint.
 
Zuletzt bearbeitet:
Das Kabel wird dir nur nicht das liefern da dein Bildschirm nur DisplayPort 1.4 beherrscht.

Ich hätte mich für ein HDMI 2.1 entschieden. Das hat eine höhere Bandbreite als DP 1.4.
 
  • Gefällt mir
Reaktionen: Gösn und Naru
Sehe ich auch gerade: Es ist die DisplayPort-Variante.
Die HDMI-Variante kostet auf gleicher Länge in genauo so viel.
 
  • Gefällt mir
Reaktionen: Gösn und iWebi
Also denkt ihr das HDMI bessere Variante wäre für meinen Bildschirm?
 
  • Gefällt mir
Reaktionen: Naru und iWebi
Die Hersteller muss man nicht verstehen.

HDMI 2.1 verbaut man und beim DisplayPort muss gespart werden.
Ergänzung ()

Gösn schrieb:
Also denkt ihr das HDMI bessere Variante wäre für meinen Bildschirm?
Ja, hätte dein Bildschirm DisplayPort 2.1 wäre das wiederum besser.

Aber da haben die bei deinen genauso gespart wie bei meinen ASUS XG27UCS 27'' 3840 x 2160 160 Hz.
 
  • Gefällt mir
Reaktionen: Naru
Zurück
Oben