News Innolux „Megazone“ Display: 4K-Panel mit über 1 Million Dimm-Zonen in Entwicklung

Blood011 schrieb:
Wieso?
OLED dürfte deutlich billiger sein in 27-32", 55" bekommt man ja auch schon fürn 1000er.

Aber der PC Markt vk uns ja eh imme für blöd.
Ja da ist eine riesen Verschwörung im Gange. Holt Fackel und Forke raus.... "der PC Markt" "vk" uns sich nicht für blöd. Der PC Markt für solche Geräte ist einfach viel viel viel zu klein. Die 20 User hier von Computerbase und die 18 aus Hardwareluxx, sind keine repräsentative Menge. Die breite Masse zockt auf dem TV an seiner/ihrer Konsole. Die Pc Gamer hängen doch größtenteils nur am FHD Monitor. Die hier oft gewünschten Monitore gibt es sicherlich nicht, weil es nicht technisch machbar ist, sondern weil dein so toll angesprochener "PC Markt" diese Gerätschaften (wirtschaftlich lohnend) nicht will.
 
  • Gefällt mir
Reaktionen: smalM
Hm, ich merke kein anderes Anforderungsprofil auf mein LG 55B6D OLED TV, den ich exzessiv als PC Monitor, ala Excel und Co, betreibe. Siehe Signatur.
 
Und wer soll den Scheiß bezahlen. Genau, keiner ....
 
32", 4K und 144Hz gehen für mich auf jeden Fall in die richtige Richtung. Mal schauen ob aus der Ankündigung auch noch was wird. Ich denke der Markt für gute und hochpreisige PC-Monitore ist sehr klein. Daher geht es dort recht schleppend voran.

Beim TV kann der Hersteller davon ausgehen, dass das Teil massenhaft gekauft wird.
 
Warum nicht gleich Micro LED (wären dann bei 4k-Auflösung 8 bzw. 24 Mio. "Dimmzonen", weil jede LED (1 oder 3 LED pro Pixel) selbst leuchtet)? 1 Mio. Dimm-Zonen mit herkömmlichem Direct LED finde ich zuviel des Guten, da die Hintergrundbeleuchtung dann fast so komplex wäre wie die darüber liegende LCD-Schicht.
 
Weyoun schrieb:
Warum nicht gleich Micro LED

Displays mit mehr oder weniger pixelgenauer Micro-LED-Hintergrundbeleuchtung werden sicher kommen. Und auch Displays, die Micro-LEDs direkt für selbstleuchtende (Sub-)Pixel nutzen, ähnlich wie OLED.
Aber das dauert halt noch ein paar Jahre, bis das (bezahlbar) am Markt ankommt.
Bis dahin gibt es solche Zwischenschritte mit Mini-LED und Co. für mehr FALD-Zonen.
 
Weyoun schrieb:
Warum nicht gleich Micro LED (wären dann bei 4k-Auflösung 8 bzw. 24 Mio. "Dimmzonen", weil jede LED (1 oder 3 LED pro Pixel) selbst leuchtet)? 1 Mio. Dimm-Zonen mit herkömmlichem Direct LED finde ich zuviel des Guten, da die Hintergrundbeleuchtung dann fast so komplex wäre wie die darüber liegende LCD-Schicht.

Na weil du MicroLED noch ein Jahrzehnt entfernt ist. Wir haben jetzt die ersten Local Dimming LCDs im PC Bereich. Eine Technik die ich schon vor knapp 15 Jahren zu Hause im TV hatte.

MicroLED wirst frühstens in 5 Jahren im TV Bereich aufschlagen. Bis dann mal solche Displays für PC verfügbar sind würde ich die Übergangszeit auch 1000 Dimming Zonen nehmen. Wirklich alles ist besser als die scheiß Frame Dimming Bildschirme mit Fake HDR 400 die überall verkauft werden.
 
Ich meine so eine technik hatte hisense im prinzip auch schon auf einer messe gezeigt.
Linus tech tips hatte da einen fernseher vorgestellt, der ein 4k ips layer mit farbe und ein fhd layer ips in schwarz weiss hinter dem 4k panel. Das schwarzweis ips layer war zum dimmen da und hatte sonit auch über 1mio dimmzonen...

Dort war quasi noch ein chip verbaut der die beiden bilder syncron halten musste.
Hisense hätte damit ähnliche gute schwarz und helligkeitswerte wie oled zum bruchteil des preises und ohne burn in aussicht gestellt. Hatte gehofft auch bald produkte zu sehen.... denn ich hab eigentlichbkeine lust auf micro led zu warten....
 
  • Gefällt mir
Reaktionen: Kuomo und RAZORLIGHT
@Herdware
Wenn die Anzahl der Zonen aber langsam die Anzahl der Pixel erreicht, dann macht das technisch keinen Sinn mehr. Alleine die Ansteuerlogik der 1 Mio. Zonen ist gigantisch.
 
Herdware schrieb:
Meine Theorie ist, dass sich die Hersteller ausgerechnet haben, dass Notebooks inkl. ihres Displays, weniger lange genutzt werden, als (hochwertige) Stand-Alone-Monitore.
...
stand-alone-monitore mit oled? da hast eher ips ..
beim TV hast eher OLED im Premium Bereich ..

mein macbook pro retina 15" mid 2012 hat nen 4kern/8thread 16gb ram 500gb ssd .. 7 Jahre alt und läuft super (außer 4k monitore ..)
und das glaubst doch selber nicht dass das Notebook Display weniger genutzt wird als z.B. ein 65" OLED TV .. Und das Material ist viel statischer als die Filme auf dem TV ..
Selbst Smartphones bekommen da Probleme
https://www.giga.de/extra/oled-burn-in-iphone-x/

Wobei das iPhone X im Test am besten abgeschnitten hat.. Will nicht wissen wie ein Notebook nach 4-5 Jahren mit mind. 3h Nutzung am Tag aussieht..
 
SlaterTh90 schrieb:
Könnte eine ähliche Technik sein wie in dem neuen Display von Apple/dem Chinesischen von der CES. Wo quasi zwei Panel hinter einander sind, und eins nur fürs Dimmen zuständig ist.
Jo den TV von Hisense fand ich auch sehr interessant, aber seit der CES nichts mehr davon gehört.
 
Mehr Zonen für die Beleuchtung klingt erstmal gut...
Aber ist das bei HDR eine stärkere GPU Belastung? Oder sendet die eh zu jedem Pixel einen weiteren Helligkeitswert?

Das mit dem Heiligenschein bei ca 400 Zonen fand ich gar nicht so schlimm... Das Auge sieht sehr helle Stellen ja auch etwas überstrahlen... Verbesserungswürdig ist es natürlich trotzdem.

Mir persönlich sind die Monitore über 24" zu groß und 4K zu heftig für die GPU.

Ich habe 24" und 1440p 144Hz....das ist aus meiner Sicht für Teilzeit Desktop Teilzeit gaming am besten....zumindest wenn man noch einen zweiten Monitor für mehr Desktopfläche daneben stehen hat.

Aber da bin ich wohl alleine;).


Wo ich auch alleine bin, und wo ich ich noch keine befriedigende Antwort erhalten konnte ist die Frage nach der Bildqualität....
Was macht das Bild besser?

Ich nenne Mal absichtlich keine Panel Typen um nicht wieder den Glaubenskrieg zu starten;).

Aber eventuell hat hier ja jemand Ahnung davon, was den Monitoren am ehesten fehlt.

Die Farbdarstellung....
alle Techniken bekommen ja die gleichen Infos zu rot, grün und blau Intensitäten....so ist die Farbe also vorgegeben und der Monitor soll diese darstellen .

Wenn die Tests jetzt herausfinden, dass der sRGB Raum oder so nur zu 90% abgedeckt ist....was bedeutet das?
Hat der Monitor eine schlechte Einstellungsgenauigkeit und kann nicht die Werte 0,1,2,....,255 ansteuern, sondern nur 0,3,6,9,...255?
Oder ist seine Abschirmung nicht gut und er kommt nicht auf 0 runter oder die Durchlässigkeit ist nicht hoch genug um auf 255 zu kommen?

Und fällt mir das auf?

Ich habe einen sehr alten Laptop, da ist Rot Orange...ich hatte da Fotos angeguckt und das rote Auto war am Monitor einfach orange...da gab es eine stark wahrnehmbare falsche Farbdarstellung.

Aber an allen anderen 6 Monitoren war das Auto rot...nicht immer das perfekt gleiche Rot, aber die Monitore sind auch nicht alle gleich hell und das macht für die Wahrnehmung ja viel aus.

Ich könnte aber nicht sagen welcher Rotton der richtige ist...ich habe drei Monitore davon mit einem externen Farb-mess-Dings eingestellt gehabt...da sollte die Farbe also besonders genau getroffen sein, aber wenn man mir zwei ähnliche nebeneinander stellen würde, könnte ich nicht sagen, welche Farbnuance jetzt die "echte" ist und welche leicht falsch ist.
Eventuell gibt es Menschen mit sRGB Augen, die sich dann die Taskleiste angucken und erkennen, dass der Blauton um 2% ins grünliche verschoben ist.....ich bezweifle es aber stark.
Spätestens wenn sie ein Foto angucken ist es doch unmöglich zu sagen, weil sie nicht den direkten Vergleich haben wie es in echt aussehen muss.

Aber eventuell bin ich ja blind und andere Leute sehen auf magische Weise wenn ein Monitor nicht 100 prozentig die richtige Farbe trifft.

Wo ich Unterschiede sehe, ist bei Farbverläufen...also z.B. Wolken, die einen schwachen aber kontinuierlichen Verlauf haben, und wo Monitor A sichtbare farbsprünge hat, und Monitor B engere Abstände der Sprünge bei kleineren Unterschieden hat.

Das wäre dann wohl der Fall, wenn der Monitor bei der Farbwahl nicht so kleinschrittig einstellen kann.


Pixeldichte ist natürlich auch wichtig....aber extrem vom Abstand abhängig.
Nur weil es 4K ist, ist es ja nicht zwangsläufig gut....gestreckt auf einen riesigen Fehrseher, ist die pixeldichte schlechter als mein uralt 1680*1050 Monitor...weil der nur 21" hat.
Beim Fehrseher sitze ich ja auch weiter weg, aber für den PC Monitor muss ich mich schon stark nach vorne beugen, um mich bei gängigen Auflösungen an der pixeldichte zu stören.

In Spielen sieht man gerade an halbtransparenten Texturen wie Vegetation Unterschiede....das hat aber mehr etwas mit der Abtastung der 3D Szene als mit der pixeldichte zu tun.

Da sind 1440p schon besser als 1080p, aber wenn ich mir die verlorenen FPS angucke, will ich nicht auf 4K gehen.

Gucke ich im Geschäft diese unglaublich teuren Fehrseher an, dann denke ich auch...."man sieht das gut aus!"
Da laufen dann Videos von Urlaubsorten usw. ab....alles leuchtet hell und mit kräftigen Farben...saftiges Gras...grell grün....aber irgendwie künstlich.
Gucke ich mich vom Schaufenster aus um, dann ist da auch Mal frisches Gras, das direkt von der Sommersonne angeleuchtet wird......das sieht schön aus, aber es leuchtet nicht so von innen heraus wie auf dem Fehrseher.

Und dann Frage ich mich ob das dann ein gutes Bild ist?
Nur weil es einladend aussieht, so als würde ich gerne in das Gras beißen, ist es ja noch lange keine realistische Darstellung.

Kaufe ich da wirklich einen Monitor mit besseren Bild oder nur einen, der eine höhere Helligkeit hat und die Farben schön "saftig" verfälscht?

Und dann sind da die Bewegungen....der dell Laptop mit angeblich guter Farbdarstellung hat leider grausige Reaktionszeiten....scrollt man z.B. in Anno über die karte werden die Wälder zu einem grünen Matsch...da hat mein Desktop Monitor noch eine klare Darstellung, die auch in der Bewegung die Bäume erkennen lässt.
Und Bewegungen an meinem Fehrseher ruckeln weil der intern wohl nur mit 24Hz läuft.

Das Thema ist so komplex, das ich Nicht sagen könnte, was jetzt der bessere Monitor und dir bessere Monitortechnik ist.

Hat alles vor und Nachteile und je nach Einsatzgebiet ist was anderes wichtiger.

Ich habe lieber meinen 24" TN Monitor anstelle meines IPS Monitors, weil ich keine Farbunterschiede sehe....ich aber die 144Hz des TN deutlich gegenüber den 60 Hz des IPS sehe.

Zurück zur Anfangsfrage...kann mir jemand erklären, was das bessere Bild ausmacht?
Sollte ich eigentlich erkennen können ob die Farben 100prozentig passen oder ist es eigentlich nur eine Frage von Kontrast und Helligkeit...oder wie unrealistisch das Demovideo ist?
 
calimero58 schrieb:
Endlich tut sich was im 32er 4K Bereich! Bitte auch IPS –Panel beibehalten, ich kann die VA– Panels nicht mehr sehen, grauenhaft gegenüber IPS.
Ich kann mit IPS nicht viel anfangen und würde meinen (AM)VA-Monitor ungerne wieder hergeben.
Ich sitze alleine vorm PC, immer im selben Winkel. Habe keinen lichtdurchfluteten Standort und schaue gerne Videos. Sogar zocken klappt hervorragend.
 
  • Gefällt mir
Reaktionen: bad_sign
Meine zwei Tests mit IPS würde ich als kläglich gescheitert betrachten.
Leicht bessere Farben als mein TN, dafür dank Gloweffekt schlimmer in der Blickwinkelabhängigkeit, als jenes TN...

VA ist auch nicht Perfekt. Ich hab noch nichts gefunden, was mir den Aufpreis ggü meiner Monitore rechtfertigen würde.


Ich hab UHD seit 2014, es wäre mal Zeit für einen Auflösungsupgrade. 6K auf 27" anyone?
 
kaxi-85 schrieb:
Einfach mehr OLEDs-Displays für PC-Monitore einsetzen und so viele Dimm-Zonen wie Pixel vorhanden sind genießen. Es kann doch nicht so schwer sein die vorhandene Technik auch für den Monitor-Massenmarkt marktreif zu machen...
Doch, kann es. OLED-Panel würden bei den am PC viel mehr vorhandenen statischen Bildelementen gnadenlos einbrennen.

Kleiner Fehler:
ComputerBase schrieb:
 
Gegenüber bisherigen Lösungen mit mehreren hundert, in seltenen Fällen mehr als 1.000 dimmbaren Zonen, "könnte" dies sichtbare Vorteile bieten.
bei dem wort "könnte" hab ich mich kaputtgelacht.
ich möchte wieder tests mit kelvin anstatt celsius!!!!!!!!!!!!!!!!!!!!!!!!!!!
 
ThmKc schrieb:
Letztens hatte ich die Gelegenheit mal etwas länger vor einem LG OLED TV (55" C8) Platz zu nehmen und habe fast den Mund nicht mehr zubekommen. Diese Farben, dieses perfekte schwarz ... einfach der Wahnsinn. Man muss es wirklich selbst erlebt haben.
Es reduziert außerdem den Fernsehkonsum – man kann das miese Bild der allermeisten Sendungen innerhalb kürzester Zeit nicht mehr ertragen. Und es hat nicht zu unterschätzende Folgekosten – man kauft Filme auf BR oder BR4K, weil man sie weder als DVDs, noch als überkomprimiertes Streaming-Zeug sehen mag.
 
Wenn ich sehe was FALD-Panele kosten, will ich dann erst garnicht wissen, wann Panels mit millionen Dimmzonen in einen brauchbaren Preisbereich fallen werden.

Ich hoffe nur, dass dieses Panel-Roulette bald mal ein Ende nehmen wird. Ist ja wohl ein Witz, dass man zuerst 10 zurücksenden muss um endlich mal ein vernünftiges zu erhalten!
 
Zurück
Oben