10 Bit oder 8Bit was ist Besser

Registriert
Dez. 2020
Beiträge
522
Ich frage mich was Besser ist am Alienware AW3821DW
RTX 3080 Suprim 10G
Core i7 9700k 4.8 Ghz

Was ist am besten zum Spielen.

Da ich bei 3840x1600

10 Bit mit 4:2:2 8bpc, 10bpc, 12bcp und 144Hz
Dynamische Bereich Begrenzt.

YCbCr 422 mit 8 Bit
Dynamischer Ausgabebereich Begrenzt 144 Hz

RGB mit 8 Bit
Dynamischer Ausgabebereich 144Hz


YCbCr444 mit 8 Nit und 144Hz
Begrenzt


RGB mit 10 Bit und 120Hz
Dynamischer Ausgabereich


Beim letzen natürlich nur 120 Hz möglich statt 144Hz aber dann mit RGB. Ehrlich gesagt habe mich schon etwas beschäftigt damit aber ich weiss nicht wirklich welche die Beste Einstellung ist.
 

Anhänge

  • 20210212_171536.jpg
    20210212_171536.jpg
    1,2 MB · Aufrufe: 369
Rein vom Bild her sollte 10bit/120Hz das beste Bild liefern, da du durch die zusätzliche Farbtiefe "mehr" Farben dargestellt werden können (geht dabei afaik nur um die darstellbaren Farben pro Kanal. Geht dann von 16,7 Millionen Farbkombinationen bei 8bit auf knapp ne Milliarde bei 10 bit).

Ich würde an deiner Stelle zwischen 10bit/120Hz und 8bit/144Hz (jeweils RGB) hin und her wechseln und testen was dir besser gefällt.

Mit YCbCr444 habe ich mich bisher nicht beschäftigt. Da "fehlen" aber auch einige Kanäle. Da solltest du einen sofortigen Unterschied am Bild sehen. Vlt. trotzdem auch probieren (wobei mir YCbCr zu "blass" und kontrastlos war).
 
  • Gefällt mir
Reaktionen: Adolf Kowalski

frkazid


Danke, ja habe schon viel probiert. Denke 10 Bit mit RGB ist am besten aber gehn halt dann nur 120Hz. Habe gelesen bei 4:2:2 das dann der Farbraum begrenzt ist.


Hatte ja vorher LG, da ging mit 4k mit 144Hz und 10 Bit und 160Hz natürlich dann 8 Bit. So wie beim LG 34GN850-B.

Firmware ist MOB101. Habe gehört das an einem neuen Firmware gearbeitet wird oder so bezogen auf das Thema hier.
 
Da wird wahrscheinlich wieder das GSync-Modul ärgern :evillol:. Glaube das unterstützt DSC erst in einer späteren Fassung.
 
10 Bit braucht man für HDR in Spielen. Hatte es bei meinem auf 8 bit + HDR und hab mich erstmal gewundert, warum ich im Himmel Farbabstufungen bzw. Artefakte habe :p. Mit 10 Bit war das dann weg und die übergänge sauber.
Ansonsten sollte es in Spielen keinen unterschied machen. Zumindest wärs mir neu, wenn Spiele ohne HDR mehr als 8 bit nutzen.


Dass beim LG 10 Bit mit 144 Hz Möglich waren liegt wohl daran, dass die Auflösung geringer war.
Farbtiefe, Frequenz und Auflösung sind alles faktoren, die die benötigte Bandbreite erhöhen. Da limitiert dann entweder der Displayport oder das Display bzw. dessen Scaler.
 
  • Gefällt mir
Reaktionen: Stargate2712 und Adolf Kowalski

B3nutzer

10 Bit braucht man für HDR in Spielen. Hatte es bei meinem auf 8 bit + HDR und hab mich erstmal gewundert, warum ich im Himmel Farbabstufungen bzw. Artefakte habe :p. Mit 10 Bit war das dann weg und die übergänge

Ja das habe ich vorhin gemerkt, hatte mal Destiny 2 Ausprobiert mit HDR und ohne. Ganze anders Bild habe dann V-Sync abgestellt das Bild war viel Schärfer und Klarer.

Vorher beim ersten mal laden habe ich mich Gewundert warum die Farben so komisch waren.
 
Außer im direkten 1:1 vergleich oder wie @B3nutzer schreibt bei speziellen Anwendungen wie HDR, wird man am Ende beim spielen sowieso kaum Unterschied merken.

Solang du nicht Professionell Fotos/Videos bearbeitest/erstellst, sehe ich sowas persönlich eher als zweitrangig an.
 
  • Gefällt mir
Reaktionen: Stargate2712
Ich würde an Deiner Stelle bei RGB@120hz bleiben. Aber kein begrenztes RGB, sondern voll. Dann 10Bit mit 120Hz. Denn die paar Hertz mehr rechtfertigen, meiner Meinung nach, keine schlechtere Bildqualität
 
  • Gefällt mir
Reaktionen: cvzone und Adolf Kowalski
GhostSniper schrieb:
aber gehn halt dann nur 120Hz.
Mehr als 120Hz braucht man nur bei mehr als 120FPS und wenn man mit Adaptive Sync (FreeSync/G-Sync) zockt dann hat man bei z.B. 60FPS eh nur 60Hz also bei 4K sind 144Hz eigentlich unnötig.
 

zakuma


Ja der Monitor ist nur für Spiele, fast auch nur Multiplayer das Spiele ich dann 8 Bit mit 144Hz. Nicht so schnelle Shooter wie Destiny 2 spiele ich dann in 120Hz und 10 Bit.

Ich denke da so die Beste Lösung, bei schnellen Shootern achtet man eh nicht so auf Grafik. Ob es da ein Grafikunterschied gibt.

In manchen Spielen bin ich der Meinung das sie in 10 Bit besser
Ausschauen. Könnte natürlich auch Einbildung sein. Aber von den Farben gefällt mir das Bild irgendwie besser.
 
B3nutzer schrieb:
10 Bit braucht man für HDR in Spielen. Hatte es bei meinem auf 8 bit + HDR und hab mich erstmal gewundert, warum ich im Himmel Farbabstufungen bzw. Artefakte habe :p. Mit 10 Bit war das dann weg und die übergänge sauber.
Ansonsten sollte es in Spielen keinen unterschied machen. Zumindest wärs mir neu, wenn Spiele ohne HDR mehr als 8 bit nutzen.
Das ergibt wenig Sinn. Wenn Spiele typischerweise für 8bit produzieren, so wird es auf 10bit- und 8bit-Displays etwa gleich gut aussehen, und das ist dank Dithering idR. ziemlich gut. Krasse Banding-Probleme kriegt man nur, wenn da der Render-Algorithmus Mist baut (d.h. ein Sch*ß-Spiel) oder von falschen Voraussetzungen ausgeht (falsche Parameter ermittelt -> Fehlkonfiguration, Bugs, etc.).

Im übrigen ist so ein sanfter Himmelverlauf quasi der Worstcase. Auch 10bit sind da keine universelle Lösung, wenn das Bild für 12bit gerendert wird und jemand mit 10bit ankommt, gibt es auch Probleme.
 

Stuffz


wenn ich z.b. auf 4:2:2 stelle kann ich auch 12 Bit einstellen. Habe mal probiert das Bild sah besser aus kann aber auch Einbildung gewesen sein. Da der Alienware ja nur 10 Bit hat.

Aber mit damit habe ich mich auch noch nicht so Intensiv beschäftig
 
Stuffz schrieb:
Das ergibt wenig Sinn. Wenn Spiele typischerweise für 8bit produzieren, so wird es auf 10bit- und 8bit-Displays etwa gleich gut aussehen, und das ist dank Dithering idR. ziemlich gut. Krasse Banding-Probleme kriegt man nur, wenn da der Render-Algorithmus Mist baut (d.h. ein Sch*ß-Spiel) oder von falschen Voraussetzungen ausgeht (falsche Parameter ermittelt -> Fehlkonfiguration, Bugs, etc.).

Im übrigen ist so ein sanfter Himmelverlauf quasi der Worstcase. Auch 10bit sind da keine universelle Lösung, wenn das Bild für 12bit gerendert wird und jemand mit 10bit ankommt, gibt es auch Probleme.

Warum ergibt das wenig Sinn?
Soweit ich weiß ist HDR üblicherweise für 10 Bit konzipiert. Daher auch z.B. der Standard "HDR10".

Es ist doch auch logisch. Man braucht 8 Bit für sauberes SDR.
Wenn ich jetzt mit HDR weitere Helligkeitsabstufungen mit höherer Leuchtkraft abbilden will, dann brauche ich auch mehr Bit, um den zusätzlichen Wertebereich in der bisherigen Granularität abzubilden.

Bleibe ich bei HDR bei 8 Bit, dann kann ich vielleicht den größeren Helligkeitsbereich abdecken, muss dann aber Kompromisse bei der Granularität eingehen. Meine Anzahl an Möglichen Werten sind nunmal auf 8 Bit begrenzt. Sprich der Unterschied zwischen dem einen und dem nächsten Farbwert ist dann größer, als bei 8Bit SDR oder 10 Bit HDR. Das führt zu Banding.



Was ich ursprünglich sagen wollte: Spiele nutzen im SDR Modus praktisch immer 8 Bit. Hier bringt es nichts auf 10 Bit zu stellen. Man verliert keine Qualität, man gewinnt aber auch keine. Im HDR Modus nutzen Spiele hingegen 10 Bit aus. Hier verliert man Bildqualität, wenn man nur 8 Bit einstellt.
 
B3nutzer schrieb:
Was ich ursprünglich sagen wollte: Spiele nutzen im SDR Modus praktisch immer 8 Bit. Hier bringt es nichts auf 10 Bit zu stellen. Man verliert keine Qualität, man gewinnt aber auch keine.
Doch, den letzten Teil habe ich kritisiert. Man verliert zwar keine Qualität im ursprünglichen Bild aber man verliert sie in der Darstellung auf dem Monitor. Weil dann der Renderer feineres Dithering macht (unter der Annahme, das Ausgabegerät könne das darstellen), dann kommt aber der Monitor und rasiert diese feinen Abstufungen ab und wenn diese Muster dann zusammenfallen, dann wird eben Bandings in Farbverläufen sichtbar. Hätte der Renderer von Anfang an auf 8bit gerendert, wären die Dithering-Muster gröber, aber sie wären noch da, und das Ergebnis sieht dann nicht so besch*en aus.
 
  • Gefällt mir
Reaktionen: B3nutzer
Zurück
Oben