News Nächster Monitortrend: 10-Bit-Farbtiefe

Betreffend LC-Displays in TVs:
60Hz sind US-amerikanischer NTSC-Standard. Daher die 120Hz, denn 2 x 60hz.
Bei euch in Deutschland sind es 50Hz. PAL hat 50Hz, ergo sind es in Europa 2 x 50Hz = 100Hz.

Die neusten Samsuenger, bzw. die Upper Class-Modelle unterstuetzen das doch schon alle.

Ist etwas irrefuehrend in dem Artikel.
 
Du weißt schon, dass du keine echten 32bit hast, sondern nur 24bit, und dass das die kombinierte Farbgenauigkeit und nicht pro Kanal ist?
 
Spacy schrieb:
Du weißt schon, dass du keine echten 32bit hast, sondern nur 24bit, und dass das die kombinierte Farbgenauigkeit und nicht pro Kanal ist?

Vielleicht hat er ja nen stufenweise transparentes Display? ;):king:;)
 
Schöne gute Technik. Wird aber nur bei wirklich guten Panels und in bestimmten Anwendungen wirklich zur Geltung kommen. Wer sich einen TN-Panel kauft, braucht sicher kein 10bit und das sollte der Großteil der schreienden Leute hier sein. Das ist wie ein Trabant mit Spoiler, schön ihn zu haben, aber mehr auch nicht. (Ironie, Ironie)

Außerdem: welchen Farbraum decken HD Filme ab? von DIVX und co. mal ganz zu schweigen. Machen da 10bit überhaupt Sinn?
 
ja genau, weil heutige gpus in einem takt 16bit genau filtern können :rolleyes:
 
mumpel schrieb:
1 Eigentlich sollte das menschliche Auge sowieso nicht mehr als 256 Stufen unterscheiden können. .

Turrican101 schrieb:
Tut es auch nicht. Wenn man diese 256 Stufen aber z.b. auf 1920px breitzieht ists klar, dass da sichtbare Stufen entstehen.

Ich denke, das Problem ist eher daß der Farbraum des Monitors nicht unbedingt 100 % Deckungsgleich mit dem Farbraum des menschlichen Auges ist, so daß der Monitor möglicherweise verschiedene Farben darstellt die das menschliche Auge nicht unterscheiden kann, auf der anderen Seite aber Farben nicht darstellt, die das menschliche Auge wahrnehmen könnte

Big Baby Jesus schrieb:
LCD und Plasma können sich schon ein Grabstein kaufen, denn LASER-TV wird kommen.
Da warte ich auch schon lange drauf, aber irgendwie kommen die ja nicht zu potte ... :freak:
 
Spacy schrieb:
Du weißt schon, dass du keine echten 32bit hast, sondern nur 24bit, und dass das die kombinierte Farbgenauigkeit und nicht pro Kanal ist?

Sagt wer? Das höre ich nun schon ein bischen länger, zu lange imho. Ohne Quelle kommt da gar nix.
 
THE7 schrieb:
lol ich hab schün längst mehr als das 3fache^^

32bit :p

LOL, wie kann man nur so naiv sein, wenn ich schon ne News lese, dass so ein Monitor erst raus kommt und man sitzt slebst vor nem 2 Jahre alten TN Monitor, und denkt, der währe was besonderes^^ Du hat bestimmt in Windows bei den Monitoreinstellungen geschaut und da steht 32 Bit. Bei 99,9999999... % aller user ist das genauso. ;)

Ich finds gut, dass da mal was vorwärts geht. Vielleicht wirds doch noch irgendwann so, dass ein Monitor wie ein Fenster oder ein bewegtes poster aussieht. Dass z.B. ein Foto auf dem Monitor genuaso aussieht wie in Echt. Oder man Fotografiert die Wand hinter dem Monitor und setzt das Bild als Wallpaper. Wenn man dann meint, der Monitor ist transparent, dann ist das Ziel erreicht.

Aber ich binn mit meinem Samsung 223bw momentan zufrieden. Das Bild ist nicht überstrahlt und Abstufungen sind nur in absoluten extremfällen zu erkennen. Und ich binn kein Grafikdesigner. Da brauch ich keinen Monitor mit dem besten Panel. Für fast alle reicht TN (auch wegen des Preises) vollkommen aus.
 
Man sieht ja auch den Unterschied zwischen 6 und 8 Bit ;)
 
Was soll das? Da macht jemand Witze!
Die sollen mal dafür sorgen, dass alle Farben des WideGamut Farbraumes angezeigt werden können anstelle sich mit kleinigkeiten herumzuschlagen.
Wen interessiert es dass man eine Farbe in 256 Stufen oder 18000 abstufen kann, wenn man nicht mal eine Rote Purpur Farbe anzeigen kann?
mehr Farbtiefe heißt beim zocken auch mehr Grafikleistung...
Hä ??? Man hat also mehr Farbtiefe... und die Konsequenz wäre mehr Leistung? Was für ein Brach.
Bei mehr Farbtiefe nuss die Grafikkarte mehr rechnen, sogar vielmehr.
 
Zuletzt bearbeitet:
Soweit ich weiß, linear zu der Bitzahl mehr.

Meines Erachtens kann man mit "16"bit statt "32"bit 50% Leistung gewinnen, oder?
 
Ouh man bin ich froh das ich mein guten alten Samsung SyncMaster 997DF hab
ich hatte schon XX viele TFT's mit X verschiedenen Panels zur Probe, nie konnte mich einer für alles Überzeugen, natürlich als normaler Anwender.

Darum Prost, ich bin mit meinem 4 Jahre alten 19" Röhrenmonitor doch immer noch bei allem top dabei.

Ich kann jede Auflösung fahren und hab ein Scharfes Bild außer die Dimension der Auflösung passt natürlich gar nicht zum 19" Format oder aber der Monitor kann ab ner Auflösung über 1920X 1440 Pixel nur noch 60Hz. LochMaske

Hab 100% Schwarz

Keine Kristalle die sich ständig anpassen müssen, sondern bei 100Hz ein Bild was sich 100mal pro Sekunde wieder aufbaut und somit kein Verschwommenes Bild bei schnellen Bewegungen.

Ich hab eine DynaFlat Bildröhre daher auch nen Flaches Bild.

Darum seht alles nicht so eng, es ist einfach eine Geschmacksfrage ob TN, IPS, MVP, MVA und und und.
Ich glaube auch wenn meiner mal den Geist aufgibt werde ich mir wieder ein CRT holen.
 
Riesiger Klotz, hoher Stromverbrauch, Flimmern, Unschärfe, Strahlung, Implosionsgefahr, etc. ... wenn du Pech hast fängt noch 'ne Spule an zu fiepen. Außerdem sind 19" ein Witz. :rolleyes:

Ob TN, IPS, PVA oder MVA usw. ist auch keine Geschmacksfrage, sondern eine Geldfrage. Niemand findet ein TN-Bild schöner als ein PVA-Bild, es behaupten nur einige, sie sähen keinen Unterschied, um ihren Kauf zu rechtfertigen.
 
Zuletzt bearbeitet:
Sind den schon bei heutigen Spielen überhaupt die Texturen für 10 Bit pro Kanal ausgelegt ?? Das man etwa sieht ? Wie ist das bei Filmen ?

Mit meinen Top Röhre kann mit 800x600 mit 200Hz spielen oder 1920x1200 bei 100Hz Streifenmaske sei dank. Nur schlecht ist der Stromverbrauch und der zu kleine Monitor...

Sonst finde es gut das sich bei TFTs endlich mal wieder was tut....
 
16:10 auf ner 4:3 röhre.... sicher SEHR sinnvoll.


Meines Erachtens kann man mit "16"bit statt "32"bit 50% Leistung gewinnen, oder?

auch gar keinen Fall.

Der sprung von 16 auf 32 bit hat selbst zu Urzeiten nicht so viel Leistung gekostet.
Heute ist eh die ganze Architektur darauf ausgelegt.

Habs im notebook mal probiert und da hat es garnix gebracht auf 16bit runterzugehen außer total bescheidene Darstellung auf dem tft.
 
Strahlung, Implosionsgefahr, etc.

Das hat Jahrzehnte keine Sau interessiert und jetzt auf einmal wird es als Grund aufgezählt. :lol:

Da gabs letztens ne schöne Studie dass TFTs Augenprobleme verursachen weil sie zu wenig (oder zu viel - weiß nicht mehr) Blau darstellen. Na? :freak:
 
Zurück
Oben