News HDTVs: Sharp erweitert RGB um Gelb

was ist wenn dann noch die 3d technik ohne brille kommt. verdammt das hört sich alles sehr schön an.
 
Das ist doch das selbe wie mit den 3 Grundfarben (Rot, Gelb und Blau) wenn ich Gelb und Blau mische bekomm ich Grün. So, warum sollte ich nun die 3 Grundfarben auf Rot, Gelb, Blau und Grün erweitern?

Das selbe bei den TVs mit Rot und Grün überlagern ergibt ein Gelb. Jetzt muss einfach statt 2 LEDs nur 1 LED leuchten (das vierte im Bunde).

Denke eher auch an einen Versuch des Marketings ein paar teure Fernseher an den Kunden abzudrücken.

mfg
 
So, warum sollte ich nun die 3 Grundfarben auf Rot, Gelb, Blau und Grün erweitern?
Weil du dadurch auf dem Papier mehr darstellbare Farben hast, ohne dass du qualitativ hochwertigere (und damit teuere) Komponenten verbauen musst.

Man kann mit RGB ohne zusätzliche Farben theoretisch fünfzig Billionen Farben darstellen - nur finde mal TFT-Zellen, die so genau schalten können und gleichzeitig noch bezahlbar sind. Das ist der einzige Grund, warum wir noch mit 8 Bit pro Farbe rumgurken - die meisten Billig-TFTs kriegen nicht mal das vernünftig auf die Reihe, für Displays mit vollem (Adobe-)RGB-Farbraum musst du einiges blechen (das vielfach als "Standard" genommene sRGB ist auch nur ein kleiner Ausschnitt). Das Hauptproblem liegt dabei nichtmal bei gelben Farbtönen, Cyan-/Grün-Töne sind bei den meisten Displays eher problematisch. Von daher ist RGBY absolut sinnlos...
 
OK ist vielleicht das Flasche Bild, aber wie weit kommen die mit der zusätzlichen LED?

Kommen die da rechts an den Rand? Wäre eine bessere Grüne nicht hilfreicher gewesen?
 

Anhänge

  • CIExy1931_AdobeRGB.jpg
    CIExy1931_AdobeRGB.jpg
    115,7 KB · Aufrufe: 681
Das ist das Bild von 1931, das gaukelt einem einen enormen Fehler im Grün vor. Das ist jedoch eine Projektion eines dreidimensionalen Raums und dementsprechend verzerrt. Die Darstellung von 1976 gibt einen deutlich besser einschätzbaren Eindruck. Cyan wäre eigentlich die beste Ergänzung, aber das ist ja ebenfalls angedacht.
 
Lol. Bei der Darstellung von 1976 ist gerade die Farbe Geld am geringsten :D Sehr gute Arbeit Sharp xD
Ein kaum wahrnehmbarer (wenn überhaupt) Unterschied... für mich gleich wieder gestorben.
 
Leute, lest und lernt (zB mein erster post in diesem Thread)

Es handelt sich nicht um eine zusätzliche LED.

Die LEDs für das Backlight werden weiss sein wie eh und je.

Es handelt sich nur um einen neuen Filter für ein zusätzlich ansteuerbares Subpixel.


Die Probleme bei der Farbwiedergabe eines LCD sind:
1. Dass das Backlight kein volles Spektrum hat.
2. Dass die Flüssigkristalle nicht stufenlos geschaltet werden können.

eine vierte Farbe verbessert, wie schon erwähnt, auf dem Papier die Anzahl darstellbarer Farben, da das Problem der Ansteuerung der Subpixel von drei auf vier verlagert wird. Statt einem Gelben Subpixel könnte man vermutlich genauso gut ein zweites grünes Subpixel hernehmen.

Vom Prinzip her würden die drei Grundfarben vollkommen reichen.
 
Das Entscheidende dabei ist doch ob sich der Mehraufwand überhaupt lohnt und eine entscheidende sichtbare Verbesserung bringt. Bin mal gespannt auf die ersten Tests.

Bestimmt haben auch schon andere Displayhersteller damit experimentiert aber nicht die erhoffte Verbesserung der Bildqualität erreicht und es dann wieder fallen gelassen.

Mittlerweise ist aber der Konkurrenz- und Preisdruck dermaßen hoch das viele Hersteller schon krampfhaft versuchen neue Techniken auf den Markt zu werfen. Egal ob es eine entscheidende Verbesserung bringt, aber Hauptsache man steht wieder in Rampenlicht.
 
endlich kann man durch die 4. farbe erkennen, ob RGB eine dt. oder engl. abkürzung ist. :)
 
...wie bereits im Artikel beschrieben: Wenn es zu Verbesserung des subjektiven Eindrucks beiträgt, hat dieses neue Feature schon seinen Zweck erfüllt. Ganz egal, ob das jetzt technisch oder durch einen Aufkleber am Gerät suggeriert wird. Die Leute sehen das, was sie sehen wollen.

Ganz nebenbei baut in meinen Augen Sharp immer noch die techn. besten TV TFT Panels.
 
surfix schrieb:
Beim menschlichen auge ist bei 16,78 Millionen Farben schluss.

das ist schwachsinn, die 16,7 mio farben kommen von der bittiefe, das auge dagegen hat keine farbliche begrenzung, zumindest dürfte die um einiges höher liegen als 16,7 mio farben

rot, grün und blau werden in 8 bit dargestellt = 256 helligkeitsstufen

256*256*256 = 16.777.216 verschieden farben
 
51% schrieb:
endlich kann man durch die 4. farbe erkennen, ob RGB eine dt. oder engl. abkürzung ist. :)

was ich mich wirklich jedes mal frage wenn ich rgb lese, interessant dass das auch andere beschäftigt ;)
 
mark666 schrieb:
rot, grün und blau werden in 8 bit dargestellt = 256 helligkeitsstufen

Genau da liegt der Hund begraben

Es wird immer nur von Fantastillionen an Farben geredet. dass man dies 16.7 Mio Farben nur in einer Helligkeit anzeigen kann, oder halt ein einziges sattes Rot, Grün, Blau, Cyan, Magenta oder Gelb in 256 Helligkeitsstufen, darüber denkt leider selten jemand nach...


natürlich können wir nicht 16.7 Mio Farben unterscheiden, vielleicht nur eine Million. aber so 100 Farben in 100 Helligkeitsstufen kriegen wir noch hin, und da wirds schon eng mit der heutigen Technik, insebsondere wenn sich endlich einmal HDR-Displays durchsetzen sollten...
 
[funcoder] schrieb:
Ich frage mich nur wenn das so die Wundererfindung wäre wieso man darauf nicht schon früher darauf gekommen ist, denn RGB gibt es ja eigentlich schon immer. Oder liegt es an der höheren Datenrate die notwendig ist?

Stell diese Frage mal dem Herrn Röntgen, oder dem Herr Kopernikus, oder dem Herrn Einstein, oder der Frau Curie ...
 
Gu4rdi4n1337 schrieb:
@ RocketChef

Weil CMY Subtraktiv und RGB additiv ist ;)
CMY ist weder subtraktiv noch additiv! das ist lediglich eine andere farbwahl zum mischen. bei druckern (die subtraktiv arbeiten) wird jedoch CMY gegenüber RGB bevorzugt, weil es bei der subtraktiven benutzung subjektiv bessere ergebnisse liefert. du kannst aber genau so gut CMY additiv nutzten wie auch RGB.

da unsere rezeptoren in den augen aber direkt auf RGB abgestimmt sinn ist es schwerer bei additiver verwendung von CMY einzelne farben prezise anzusteuern. kleine abweichungen fallen stärker subjektiv auf.

E.T. schrieb:
Genau da liegt der Hund begraben
natürlich können wir nicht 16.7 Mio Farben unterscheiden, vielleicht nur eine Million. aber so 100 Farben in 100 Helligkeitsstufen kriegen wir noch hin, und da wirds schon eng mit der heutigen Technik, insebsondere wenn sich endlich einmal HDR-Displays durchsetzen sollten...

helligkeitswerte/farbvariationen können wir WEIT mehr von einer einzigen farbe unterscheiden, zig-zehntausend. im falle von grün noch mehr.
 
Gu4rdi4n1337 schrieb:
Schaun wir mal, wie die Porno industrie darauf reagiert....
Wenn die das annehmen ist das so gut wie standard!
(War bei der Bluray vs HD-DVD das gleiche )

Aber es ist wirklich recht sinnfrei, wenn es kein Passendes Eingangssignal gibt

Naja das war mal ;)

Die Pornoindustrie zerfällt ja aktuell, Blue Ray war nen Flopp da die Kunden mitlerweile kurze Schnick Schnack Filmchen kostenfrei im I-Net bekommen Porntub etc. und der Kunde für die benötigten paar Minuten sich nicht komplett nen Film kauft ;)
 
E.T. schrieb:
Genau da liegt der Hund begraben

Es wird immer nur von Fantastillionen an Farben geredet. dass man dies 16.7 Mio Farben nur in einer Helligkeit anzeigen kann, oder halt ein einziges sattes Rot, Grün, Blau, Cyan, Magenta oder Gelb in 256 Helligkeitsstufen, darüber denkt leider selten jemand nach...


natürlich können wir nicht 16.7 Mio Farben unterscheiden, vielleicht nur eine Million. aber so 100 Farben in 100 Helligkeitsstufen kriegen wir noch hin, und da wirds schon eng mit der heutigen Technik, insebsondere wenn sich endlich einmal HDR-Displays durchsetzen sollten...

im übrigen sind ja 16.7 mio farben bei grafikkarten schon lange nicht mehr aktuell.
die laufen ja seit jahren schon mit 32bit farbtiefe, und das sind 4,2 milliarden farben (4.294.967.296)

nur mal so als anmerkung am rande

edith: nur frag ich mich grad welche bittiefen da die einzelnen farben haben, bei jeweils gleicher bittiefe würde da ne ungerade bitzahl rauskommen *grübel*
 
Zuletzt bearbeitet:
Zurück
Oben