News Nächster Monitortrend: 10-Bit-Farbtiefe

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.615
Die Grafikausgabe auf modernen Rechnern wird mit der Zeit immer besser, weswegen auch die Ausgabegeräte in Form von Fernsehern und Monitoren ab und an einen Schritt nach vorne machen. Aktuell scheint zum Beispiel der Trend zu 120-Hz-Modellen nicht mehr zu stoppen.

Zur News: Nächster Monitortrend: 10-Bit-Farbtiefe
 
Für HDR muss erstmal der Schwarzwert besser werden. Dafür taugt LCD einfach bauartbedingt nicht.
Was bringen mir feinste Farbnuacen, wenn sie vom Backlight überstrahlt werden?
Wo bleibt denn SED, Himmel Arsch und Zwirn!
 
10 bit?
jetzige haben nur 8 bit?
ihr meint wohl pro farbkanal, oder?
also
8bit grün,
8 bit rot und
8 bit blau
=>24bit Oder?
Dazu noch 8 bit Helligkeit und ich bin eigentlich zufrieden xD

SED wird erst (wieder ^^) kommen wenn jeder und seine mutter einen LCD haben ;)
 
Zuletzt bearbeitet:
wird man dadurch auch einen (wenn auch klitze kleinen) performanceunterschied merken? intern arbeiten grafikkarten ja auch mit 10 bit farbtiefe pro kanal. oder wird dies einfach durch die dvi-schnittstelle/monitor "begraben" und nicht übertragen/angezeigt? ich tippe eher auf letzteres, aber der 1. fall wäre auch nicht schlecht.

@FloW3184: wurde doch im text erwähnt: 24 bit ohne, 32 bit mit alpha kanal. nächstes mal besser lesen. ;)
 
tns haben nur 6bit .
 
Den Hauptvorteil den ich darin sehe ist, dass man dann endlich den Kontrast ändern kann ohne unregelmäßige Farbverläufe und Farbraumeinschränkungen hinnehmen zu müssen.

Ich frage mich, warum 10 oder 12 Bit nicht schon längst zum Standard gehören. Besonders seit Monitore dynamische Kontrastfunktionen bieten ist eine höhere Farbauflösung eigentlich unvermeidlich.


tns haben nur 6bit
Das hat sich soweit ich weiß mittlerweile auch geändert. Vor 1-2 Jahren war das noch so, aber mittlerweile arbeiten die auch ohne Dithering mit vollen 8 Bit.
 
In Zeiten in denen TNs Hochkunjunktur haben soll sich 10bit durchsetzen ?

Die Behauptung ist zum aktuellen zeitpunkt etwa so warscheinlich als würde jemand sagen die HD-DVD setzt sich durch :rolleyes:
 
Hmm, also da kann ich nur hoffen, daß es was bringt.
Letztens habe ich auf einem dieser "hochwertigen" Dinger bei meinen Eltern nochmal die Firma gesehen, aber irgendwie wirkt TV darauf sehr künstlich. Die alten verwaschenen Röhren-TVs wirken da auf mich viel realistischer als diese Dinge.
 
10 bit Monitore sind immernoch ein Mysterium für sich:
Zuerst konnten die meisten Grafikkarten 10 bit nicht übertragen, dann wurde mit dem Feature geworben, aber der Treiber wurde nicht auf 10 bit angepasst.
Dann hiess es nur eine interne 10 bit Lut existiert, externe 10 bit Lut gar nicht möglich, da erst HDMI 1.3 oder Displayport überhaupt 10 bit übertragen können.

Nun kam der HDMI 1.3 und was war: Es funktionierte immernoch nicht. Teure DVD- Bluray Zuspieler konnten dem Monitor die 10 bit schicken. PC Grafikkarten versagten.
Daneben kommt noch die interne LUT der Monitore, die meist die von der Grafikkarte gegebenen Farbwerte nochmals hochskaliert (12 bis 16 bit), um Sie dann wieder auf 10 bit runterzuskalieren.

Zusammenfassung: 10 bit pro Farbe sind schön anzusehen, sind aber auch zu 99% verfälscht gegenüber dem Ausgangssignal.
Für die Druckvorstufe sollten die Hersteller entlich zusammenarbeiten.

Ich setze viele Hoffnungen in den Displayport, bis jetzt scheint aber keine Grafikkarte mit einem nativen Port ausgestattet. Meist (alles?) nur Bridged Chips, die z.T. wohl nicht die Spezifikationen des nativen Displayport mit sich bringen.
 
Also in der Fernsehkultur muss sich eh noch einiges tun. Schließlich kann man momentan höchstens von einem digitalen Signal, aber noch nicht einmal vom normalen HD (~1280x768) profitieren, weil die HD-Sender wieder eingestellt wurden. Wenn jetzt 10bit kommen würde gäb es wahrscheinlich wieder ewig keinen Sender der es ausstrahlt.
Fernseher mit solchen Features lohnen sich MM nur wenn man sie noch an den Rechner hängt.
Im übrigen find ich beim fernsehen mein Röhrengerät immer noch besser wie jeden LCD. bis her hab ich nur einen Plasma gefunden der mir ebenbürtig erschien.
Der nächste Quatsch ist im Fernseher 120Hz. jeder Sender strahlt nur 25Hz aus. Das sind ~6MB/s bei 120Hz wärens dann 28,8MB/s. Dannoch FullHD und 10bit und wir sprengen die 100MB/s. Schön wenn es so schnelles Inet gäbe...
 
@ Gorby:

Die Frameübertragung bleibt gleich (vorerst) nur beim Röhrenfernseher wirste merken das der nicht mehr
so stark flimmert, auch wenn das selbe Bild 2 mal dargestellt wird.

Bei TFT ist es eigentlich unnötig, höchstens für 3D Brillen von Belang.
 
@Gorby: Du verfehlst das Thema: Es geht hier nicht um das (Internet-) Fernsehen von "Endkunden"; in der TV Produktion benutzt man 10 bit und mehr schon ewig und drei Tage:
Passend zum Thread der Monitor http://www.prad.de/new/news/shownews_alg1913.html

Stichwort SDI Ankopplung der Monitore.
Es geht hier vor allem um Computermonitore, Produktionsmonitore und keine TV-Einheiten, obwohl der Eizo aus dem Link damit auch keine Probleme hätte.
 
was nützt das einem bei einem kontrast von vielleicht in zukunft 1:3000? das entzieht sich meiner kenntnis ^^
 
10 Bit ist schon längst Ursus bei Profi-Monitoren und -Grafikkarten (Eizo und Matrox). Und ansonsten muss ich Realsmasher zustimmen: Preis ist der Trend bei Monitoren. Nichts anderes. Warum verkaufen sich denn die billigen TN-Panels wie Sau? Weil sie so ein tolles Bild machen? Nein, weil sie billig sind und für viele ausreichen.

Der Vorteil von 10 gegenüber 8 Bit ist übrigens, dass man statt 256 Farben pro Farbkanal 1024 Farbabstufungen hat. Eigentlich sollte das menschliche Auge sowieso nicht mehr als 256 Stufen unterscheiden können. Mit 10 Bit+ sind also feine Farbabstufungen möglich. Bspw. sind dann in sehr dunklen oder hellen Flächen noch feine Strukturen möglich.

Und obwohl heute eigentlich jeder Monitor 16 Mio. Farben (8 Bit), sieht man ab und zu noch Abstufungen bei feinen Verläufen, helle und dunkle Bereiche versiffen, heftige Farbschwankungen bei unterschiedlichen Winkeln, kleine Farbräume und etliche andere Macken. Alleine die Anzahl der darstellbaren Farben heißt also noch gar nichts. Die Qualität hängt viel mehr vom Panel ab. Man kann das ganz doof mit der Megapixel-Angabe bei Digitalkameras vergleichen: Mehr Pixel heißt nicht automatisch, dass das Bild dadurch besser wird, sondern erst mal nur, dass es größer ist. Die Qualität macht der Sensor (CCD), ggf. noch seine Größe (Abmasse, nicht MP).
 
Ach wie schön war es noch mit CRTs. Da hat man sich einen Gekauft und gut wars für Jahre.
Da wurde dann nur mal die Hz Zahl erhöht und die Auflösung. Fertig.

Bei den TFTs heutzutage muss man auf Lag achten, auf Panels, auf richtige Farbwiedergabe, auf Blickwinkel, auf Overdrive (oder auch nicht), auf Inputlag, auf Helligkeit, auf Kontrast, auf Schlieren, auf Beleuchtungsart, auf Hz Zahl, auf Interpolation, und und und. Und jetzt kommt auch noch sowas dazu.
Da wird man doch bekloppt wenn man da nicht bei vielen Dingen einfach die Ignoranz einschaltet...
 
Muscular Beaver schrieb:
Ach wie schön war es noch mit CRTs. Da hat man sich einen Gekauft und gut wars für Jahre.
Da wurde dann nur mal die Hz Zahl erhöht und die Auflösung. Fertig.
Da kann ich nur müde drüber lächeln.

Schon mal einen Medion-CRT gesehen? Qualitativ durchaus mit billig TFTs vergleichbar, die nur über D-Sub Eingang verfügen.

OK, Medion sind da nicht die einzigen, aber zu einem qualitativ hochwertigen CRT gehört mehr als Frequenz und Auflösung. Deutlich mehr.
 
@riddi
Was empfehlen die denn? Man muss so gut wie immer Kompromisse eingehen. Kommt immer drauf an was man machen will oder worauf man wert legt.

@klamann
Auch da musste man natürlich schauen was gut ist, aber da gab es LANGE nicht so viele subjektive Dinge auf die man achten musste wie jetzt bei TFTs.

Ich bin nämlich gerade dabei einen 24" zu suchen und es ist einfach nur die Hölle. Nirgends gibts einen der genau meinen Wünschen entspricht, man wird oft sogar total falsch beraten, eben weil alles so subjektiv ist.
 
Zuletzt bearbeitet:
mumpel schrieb:
Eigentlich sollte das menschliche Auge sowieso nicht mehr als 256 Stufen unterscheiden können.


Tut es auch nicht. Wenn man diese 256 Stufen aber z.b. auf 1920px breitzieht ists klar, dass da sichtbare Stufen entstehen.

Und wenn der Monitor auch noch falsch eingestellt ist, entstehen noch mehr Stufen.

Das könnte man nur durch ne Art Dithering überdecken, dann sieht man die Stufen auch nicht. Wieso macht man das eigentlich nicht bei 8-Bit? Bei den TN-Kackdingern hats ja auch ganz gut funktioniert.
 
Zuletzt bearbeitet:
Zurück
Oben