News Philips Ultra Wide Color: Die Technik hinter den neuen Monitoren

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.920
Kann es sein, dass das Testbild mit dem Pfau die Innovation nicht so richtig darstellen kann? Ach so... das Bild wird ja doch noch über meinen Monitor wiedergegeben ;) :D

Ich frage mich, wo hier die Überschneidung aus technischer Sicht mit den kommenden HDR-Monitoren ist.
 
Ähm, und dann nicht einmal ein DisplayPort Eingang?

Erscheint mir nicht ganz nachvollziehbar, aber solange man die neueste Display Technik mit einem VGA Eingang kombiniert... die wissen schon, was sie tun. :D
 
Phosphor wird hier mit Sicherheit nicht verwendet, wenn dann ein phosphoreszierendes Material, wobei auch das unwahrscheinlich ist, da phosphoreszierende Materialien nachleuchten und damit kein schneller Farbwechsel möglich wäre. Deswegen werden fluoreszierende Beschichtungen eingesetzt, die kein Nachleuchten zeigen und somit einen schnellen Farbwechsel möglich machen.
 
Philips E-Serie als erstes UltraColor-Display, DVI, VGA, ohne HDMI-Eingang, 189€.
Low-Level-Bereich. Irgendwo muss gespart werden, das Bild ist hier entscheidend.
 
Der Begriff "Phosphor" ist korrekt, aber damit wird Leuchtstoff gemeint und nicht das Element (welches wiederum den Namen bekommen hat wegen der Lichtabgabe von weißem Phosphor in Verbindung mit "Luftsauerstoff").

Anders als bei der verbreiteten Kombination aus weißen LEDs (White-LED) oder blauen LEDs (Blue LED) mit einem gelben Phosphor-Coating
Beides das Selbe, denn weiße LEDs sind blaue LEDs mit gelben Leuchtstoff (bei ausgeschalteter LED ist dieser deutlich zu sehen). Weiße LEDs gibt es nämlich nicht, das "Weiß" entsteht stets durch Mischung von Farben.


Zum Bildschirm:
Ist der wirklich von Philips, oder wieder mal von irgendeinem Chinesen, der die Namensrechte für diese Produktkategorie hat?
 
Zuletzt bearbeitet:
Die Idee dahinter ist längst nicht neu. Schon seit Jahren werden Phosphor-Schichten in LC-Displays eingesetzt. Ein ähnliches Konzept steckt auch hinter der sogenannten GB-R-LED-Beleuchtung, bei der allerdings gelbe (G) und blaue (B) LEDs mit einem roten Phosphor-Film (R) genutzt werden. Dem Namensschema folgend, müsste die Methode von Philips/TPV „B-RG-LED“ heißen. Auch die Variante RB-G-LED mit roten und blauen LEDs und grün schillerndem Phosphor existiert.

Also wenn hier schon ein Namensschema aufbaut müsst ihr euch aber auch entscheiden, ob das G nun für Grün oder für Gelb stehen soll....
 
Wenn es schon so ein Farbspektrum dargestellt werden kann, warum werden dann nicht 10 Bit Panels bereitgestellt. Das verstehe ich nicht.
 
Faust2011 schrieb:
Kann es sein, dass das Testbild mit dem Pfau die Innovation nicht so richtig darstellen kann? Ach so... das Bild wird ja doch noch über meinen Monitor wiedergegeben ;) :D

Was meinst du warum es Werbebilder gibt wo man einen Monitor extra schlecht aussehen lässt (weit realitätsfern) und nebendran das mit besserem Kontrast und Farbe? Genau deswegen, oder? ;)
 
Kein 144hz, kein Freesync/G-Sync?

Wie schwer kann es sein solche Features zu integrieren....
 
Qyxes schrieb:
Wenn es schon so ein Farbspektrum dargestellt werden kann, warum werden dann nicht 10 Bit Panels bereitgestellt. Das verstehe ich nicht.

nur zur Info ^^ .
Es sind sogar 24 Bit, 2^24 = 16.777.216 Farben, oder 256x256x256 Farben mit 8 Bit für R, G, B.
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Kann es sein, dass das Testbild mit dem Pfau die Innovation nicht so richtig darstellen kann? Ach so... das Bild wird ja doch noch über meinen Monitor wiedergegeben ;) :D

Stimmt, Werbebilder für eine neu Bildschirmtechnologie sind eigentlich Unsinn, wie machen die es, das es auf dem Kundenbildschirm besser aussieht.
Ergänzung ()

Vindoriel, trotzdem steht im Datenblatt
Farbtiefe 16,7 Mio. Farben (8 Bit)
8 Bit wäre ja fatal.

Aber zu deiner Frage Qyxes, Kostenfrage vielleicht und weil das menschliche Auge 10 oder gar 12 Bit für jeweils R, G und B (Deep Color) gar nicht verarbeiten kann, außer bei hochwertigen Fotos vielleicht.
 
Zuletzt bearbeitet:
masterw schrieb:
Und wann kommen die echten HDR-Monitore?

Diese Frage fiel mir auch als erstes ein, und sie ist legitim.

Zeigt auf der anderen Seite, das die Sony PS4 HDR Prahlshow vorgestern auf Sand gebaut ist. Viel Spaß mit dem Thema "Farbspektrum" Erweiterung und dem Käufer. Wie hier von Philips kocht da jeder sein eigenes Süppchen und schert sich offenbar schlicht einen Dreck darum, ob man eine Standardisierung einfacher oder schwieriger macht.

Das was Philips hier bringt veranschaulicht die Situation ja hervorragend. Einzeln betrachtet ist es vielleicht "nett", dass sie hier eine Farbspektrum Erweiterung bringen. Insgesamt ist das nur ein weiterer Einzelweg von cirka einem Dutzend Monitor und TV-Herstellern.
Und jetzt kommen auch noch die Konsolenbereiche von Sony und Microsoft an und melden eigene Ansprüche in dem Thema an.

Aus meiner Sicht müsste sich spätestens jetzt mal ein ernsthaft großes Konsortium zusammentun um die tatsächliche Spezifikation eines wie auch immer gearteten tatsächlichen HDR festzuschreiben, damit man sich als Verbraucher einer Kompatibilität mit einer Konsole, Grafikkarte und Disc-/Medienplayer sicher sein - plus einer klaren Formulierung welche Kabelspezifikation dafür notwendig ist.
 
Das mit dem Standard für HDR ist ein guter Punkt. Gibts da wirklich (noch) nichts? AMD und Nvidia haben ihre neueste Grafikkartengeneration immerhin mit den Übertragungskapazitäten dafür ausgestattet (also die Displayanschlüsse).
 
engine schrieb:
nur zur Info ^^ .
Es sind sogar 24 Bit, 2^24 = 16.777.216 Farben, oder 256x256x256 Farben mit 8 Bit für R, G, B.
Auch wenn es das Thema tangiert, ist diese Info keinen Pfifferling wert. Wenn man bei Farbräumen von x Bit spricht, wird selten der gesamte Farbraum gemeint, sondern in aller Regel die Anzahl der Bits pro Farbkanal.

Gerade bei Monitoren wird oft nur die Bit-Anzahl pro Farbkanal angegeben, ins besondere bei Look-Up-Tables. Wenn man also im Zusammenhang von einem Monitor von 10 Bit spricht, ist der Farbkanal gemeint, nicht der Farbraum.

Er spricht also von 10 Bit pro Farbkanal, was einen Farbraum von 30 Bit ergibt. Also von 1.073.741.824 möglichen Farben oder 1.024 Farbabstufungen pro Kanal.

-- Edit --
Und die Aussage, dass ein Mensch "12 Bit pro Farbkanal" nicht sehen kann, ist nur bedingt richtig ...

Je nach Aussage kann ein Mensch ca. 20.000.000 Farben wahrnehmen, wir bräuchten also theoretisch nur 9 Bit pro Farbkanal. Doch mit diesen 9 Bit ist es nicht getan. (1.) Neben Rot, Grün und Blau, gibt es ja noch "unzählige" weitere Farben, diese werden aus den 3 Hauptfarben (in dem Fall sind es Hauptfarben, hier ist es die additive Farbmischung) gebildet. Das passiert aufgrund des begrenzten Farbraums mal mehr oder weniger Schmutzig. Diese schmutzige Darstellung ist gerade bei Farbverläufen durchaus sichtbar, gerade bei Monitoren die nur 8 Bit pro Farbkanal nutzen und keine größere LUTs nutzen. Diesen unsauberen Farbverläufen wird mit höheren Farbräumen und/oder LUTs entgegen gewirkt.

Es ist daher zwar richtig, dass der Mensch nicht mehr alle Farben bei 10 Bit pro Farbkanal wahrnehmen kann, dass ein Verlauf jedoch saubere ist, nimmt er sehr wohl wahr.
 
Zuletzt bearbeitet von einem Moderator:
meganie schrieb:
Phosphor wird hier mit Sicherheit nicht verwendet, wenn dann ein phosphoreszierendes Material, wobei auch das unwahrscheinlich ist, da phosphoreszierende Materialien nachleuchten und damit kein schneller Farbwechsel möglich wäre. Deswegen werden fluoreszierende Beschichtungen eingesetzt, die kein Nachleuchten zeigen und somit einen schnellen Farbwechsel möglich machen.
Plasma TV nutzen Phosphor als Leuchtmittel und auch in LEDs wird Phosphor verwendet, schnelle Farbwechsel sind also sehr wohl möglich
 
engine schrieb:
Vindoriel, trotzdem steht im Datenblatt
Farbtiefe 16,7 Mio. Farben (8 Bit)
8 Bit wäre ja fatal..
Ist doch korrekt angegeben, nur kannst Du nicht Farbraum und Auflösung pro Farbkanal auseinanderhalten.

Aber zu deiner Frage Qyxes, Kostenfrage vielleicht und weil das menschliche Auge 10 oder gar 12 Bit für jeweils R, G und B (Deep Color) gar nicht verarbeiten kann, außer bei hochwertigen Fotos vielleicht.
Natürlich kann das Auge 10 oder gar 12 Bit pro Farbe verarbeiten, denn auch die Helligkeit muss mit übertragen werden, RGB ist schließlich ohne separatem Helligkeitskanal.
 
Zurück
Oben