Ohne HDR sind 10bit quasi sinnlos - vor allem bei dem Gamut der Lenovo-Monitore.Tomislav2007 schrieb:Wenn du 10 Bit nicht brauchst OK, aber sprich nicht für alle.
Übrigens könnte man auch ein 8bit-Kanal-Signal für HDR quantisieren.
Eben - abraten, daher kann man sich auch 10bit schenken.Tomislav2007 schrieb:8 Bit wenn du kein HDR willst, 10 Bit wenn du HDR willst, bei einem Monitor bis 200€ würde ich aber von HDR eher abraten.
Diese machen 8bit-sRGB aber nicht obsolet. Oder gibt es schon ein Windows, das vernünftig arbeitet? Windows 12 schon raus?Tomislav2007 schrieb:Hör auf so einen Unsinn zu schreiben, HDR mit 10 Bit und Dolby Vision mit 12 Bit sind schon lange Standards die nicht mehr wegzudenken sind.
Je nachdem mit welchem OS oder wie viel "weiß" man arbeitet, muss auch OLED nicht die beste Wahl für einen PC sein. Wenig Serien-/Film-Konsum?
Wie viele Spiele gibt es, die HDR vernünftig umsetzen? Eines? Was ist mit VRR-Flackern? Im Falle von G-Sync (oder VRR-Pendant) würde ich auf HDR und damit OLED verzichten.
@bickid,
dein Fehler war es schon dir nur eine 5070 Ti zu kaufen. 5090 war eigentlich Pflicht.
Wozu braucht man denn schließlich zwei Nieren?
Ergänzung ()
Laut Steam dürften die meisten noch 8bit eingestellt haben. Spiele müssten auch HDR bzw. 10bit unterstützen.bickid schrieb:Und 8bit sind auch noch weit verbreitet oder hab ich dann einen veralteten Bildschirm, während 90% der Gamer mit 10bit zocken?