News Farbechter 24"-TFT von NEC mit 16:10-Display

Sailor Moon schrieb:
Siehe den letzten Abschnitt in meinem vorigen Beitrag.

Gruß

Denis

So hab ich LUT auch bisher verstanden.
Im Grunde ist die LUT immer besser je höher, weil ein niederes Signal so genauer und feiner dargestellt werden kann.

Im Grunde wie wenn ich ne 640x480 Auflösung auf nem 1920x1200 Schirm darstelle und dann einen 1024x768 Bildschrim mit exakt gleicher Fläche.
Sieht natürlich die selbe Auflösung prinzipiell auf dem höheraufgelösten Display besser aus.

Und so wird auf nem 10 Bit LUT Display ein 8 Bit Signal besser aussehen.
 
Artikel-Update: Soeben erreichte uns die offizielle Pressemitteilung von NEC. In dieser werden nicht nur die hier aufgeschlüsselten Eckdaten des Monitors bestätigt, sondern auch die Vorstellung weiterer Modelle angekündigt. So will NEC im Laufe des Jahres auch eine 23"-, 27"- und 30"-Version des Displays aus der PA-Serie vorstellen. Das bekannte 24"-Modell wird hingegen im Laufe des kommenden Monats März in die Läden wandern. Die unverbindliche Preisempfehlung ist dabei auch hierzulande sehr saftig und beträgt 1.029 Euro, womit der Preis in US-Dollar quasi 1:1 übernommen wurde.
 
Zuletzt bearbeitet:
also diese 1:1 Geschichte beim Wechselkurs is ne echte Frechheit bei so hohen Beträgen.
Bin schon gespannt was beim 27" und 30" Fakt sein wird.

Auf jeden Fall werde ich mir diese Monitore ganz genau anschauen.
 
Wow, wenn er in 24" schon über 1000€ kosten soll, wie sehen dann erst die Preise in 27 und 30" aus?
Schade, dass man für herausragende Technik auch immer herausragende Preise bezahlen muss :heul:
 
irgendwie muss sich ja herausragende Technik von nicht herausragender unterscheiden ;)
 
Wofür der VGA-Eingang gut sein soll wird wohl NECs Geheimnis bleiben. Zeitgemäß wäre: 1x DVI-I + 1x weiterer Eingang (digital) = DVI-(I/D), HDMI, DisplayPort.

Sensor für umgebungslicht ist bei einem farbverbindlichem Monitor vollkommen fehl am Platz, das mag ja für Glossy-Mediamarkt-Glotzen en vogue sein, aber hier hat sowas nichts verloren.
 
ich habe ein 27" von HANNSG! das ding ist eine katastrophe! lassen wir Bildbearbeitung mal komplett beiseite (jedes handy display ist besser geeignet) aber das ding kriegt nichtmal spiele oder filme ordentlich hin.

Das Display wurde hoch und runtergelobt aber ich sag euch! es nervt! nach dem man schon zum x-ten mal an den einstellungen rumgedreht hat um von einem schlechten bild zum anderen zu wechseln (gibs sonst nix), gibt man einfach verzweifelt auf. Inzwischen sieht die Lösung bei mir so aus, für Desktop ist grauenvoll schlechtes Bild 1 und für Filme und Spiele grauenvoll schlechtes Bild 2 (die sind noch grauenvoller wenn man sie umdreht).

Aber! und das ist ein grosses aber! das Ding kost inzwischen irgendwas um die 300!

Dank den neuen ATI Karten (nativer Multimonitor Support) kann man also ganze 3 von diesen Monstern zusammenschalten. Wenn man ein Bastler ist, kann man die Viecher auch schön an die Wand klatschen. Das Resultat....immer noch nix für Bildbearbeiter aber geil für Zocker!

Da ist auch schon der Haken an der Geschichte! der NEC, so klasse das ding auch ist, kostet MEHR als 3 27" Monitore. Das mag ja okay sein für jene die mit Bildbearbeitung Ihr Brötchen verdienen oder die "Ultra-Enthusiasts" aber der Otto-Normal-Hobby-Mann hat herzlich wenig davon.

Fazit: bestimmt top notch! aber vieeeeel zu teuer! (verglichen mit Markt natürlich und ausgenommen für spezialisten die ja immer das geld haben :)
 
betawa schrieb:
Wofür der VGA-Eingang gut sein soll wird wohl NECs Geheimnis bleiben..
Hallo,

das ist kein Geheimnis. Der ist für die Leute gedacht, die noch Grafikkarten im Einsatz haben, die damals mehrere 1000 DM gekostet haben, aber eben ohne DVI waren.
 
Die kann man heute doch trotzdem in die Tonne kloppen. Analoge Bildübertragung von Graka zu Monitor macht heute überhaupt keinen Sinn mehr.

Tyr43l schrieb:
also diese 1:1 Geschichte beim Wechselkurs is ne echte Frechheit bei so hohen Beträgen.
Die Preise für Elektronik in DE sind generell eine absolute Frechheit. Zum Beispiel auch bei Boxen zahlt man in anderen Ländern oft nur die Hälfte.



Geiler Monitor! Endlich mal nicht wieder so nen 16:9/"dynamischer Kontrast"-Müll, sondern ein vernünftiges Panel!
Mit seiner Reaktionszeit dürfte der sogar ganz gut zum Zocken geeignet sein.
Schade, daß der Preis so derb ist.
 
Konti schrieb:
Die kann man heute doch trotzdem in die Tonne kloppen. Analoge Bildübertragung von Graka zu Monitor macht heute überhaupt keinen Sinn mehr.
Hallo,

es geht nicht darum, was heute auf den Müll gehört. Es geht darum, dass Eizo mitdenkt.
Und hast Du eine Ahnung, was z. B. ein gutes analoges Signal ausmacht?

Auch gab es früher den BNC-Anschluss, das war auch eine leichte Verbesserung für Röhren.
 
Wegen dem VGA-Anschluss muss ich moquai recht geben.
Firmen, die noch FireGL- oder Quadro-Karten ohne digitale Anschlüsse besitzen würden ohne solche Monitore ziemlich auf dem trockenen sitzen.
Ich bin mir fast sicher, dass solch alte Karten auch heute noch einen perfekten Support haben, so dass es eigtl keinen Grund gibt die zu entsorgen. (sind ja auch nicht gerade billig)
 
Hallo,

ganz genau das war mein Gedankengang. So manche Werbeagentur hat noch so einen "verschimmelten VGA-Schinken" im Gehäuse verbaut.
 
=dragon= schrieb:
8 Bit Farbtiefe über DVI, ich weiß.
Aber sind nicht Farbtiefe und LUT was ganz anderes..?
Genau darauf wollte ich hinaus – dass eine 10-Bit-LUT sicherlich Vorteile gegenüber einer 8-Bit-LUT bietet, aber auch nicht viel rausreißen kann, wenn das eingespeiste Signal nur 8 Bit pro Farbkanal liefert. Ähnlich wie bei einer 16- oder gar 24-Bit-Audioaufnahme von einer Signalquelle, die nur 8 Bit liefert (Vorteile bei ggf. weiterer Signalverarbeitung bzw. -umwandlung ausgenommen, was im Vergleich der LUT entspräche).

Doch angesichts von:
Sailor Moon schrieb:
Letztlich geht es hier also weniger um eine externe Ansteuerung mit >8-Bit pro Kanal, sondern dem Erhalt eines möglichst großen Tonwertumfanges in Bezug auf das originäre Signal.
lag ich da wohl falsch.

Vor nem Jahr wo ich noch bei Media war, da gabs schon so Dinger mit WCG Aufkleber, die schöne Bonbon Farben zeigen konnten.. ^^
Da bin ich sicher, dass es die heute mal locker für 200 EURO und weniger gibt.
Hm. AFAIK geht der ernstzunehmende Bereich für WCG-Displays eher bei 300 EUR los, bei 24"-Panels noch deutlich darüber.
Praktische Gegenbeispiele?

Ich würde Wiki nicht immer so blind vertrauen.
Habe ich nicht, sondern diese nur als eine relativ zuverlässige Quelle, die schnell bei der Hand war, herangezogen ;)

Vertrauen würde ich da schon eher der c't (welche auch die Notation "Gamut" vertritt – auf der verlinkten Seite nicht sichtbar) ... jedenfalls deutlich eher als Prospektmaterial, das evtl. von irgendeinem Praktikanten erstellt wurde :p

Ich glaube nicht, dass die in absehbarer Zeit fürn Appel und Ei verschleudert werden, da müssten die TN erst vollständig verschwinden.
Im Preisbereich zwischen "für'n Appel und 'n Ei" und "billiger" (s.o.) sehe ich durchaus noch Spielraum ;)

Meinen 2443BW habe ich auch nicht gerade für'n Appel und 'n Ei bekommen, aber für preiswert halte ich ihn durchaus :cool_alt:


Ergänzung:

=dragon= schrieb:
Im Grunde wie wenn ich ne 640x480 Auflösung auf nem 1920x1200 Schirm darstelle und dann einen 1024x768 Bildschrim mit exakt gleicher Fläche. Sieht natürlich die selbe Auflösung prinzipiell auf dem höheraufgelösten Display besser aus.
Prinzipell = in der Theorie vielleicht, in der Praxis sieht das aber oft anders aus. So bieten viele "HD Ready"-TVs mit 1366x768 Pixeln ein deutlich besseres PAL-Bild (720x576 Pixel) als die meisten top-aktuellen, teilweise um ein Vielfaches teureren "Full HD"-Glotzen mit 1920x1080 Pixeln ... einfach weil die Differenz zwischen originaler und interpolierter Auflösung nicht so hoch ist, und/oder weil bei den älteren Geräten noch mehr Augenmerk auf vernünftige PAL-Darstellung gelegt wurde.

Aus praktischer Sicht wage ich zu behaupten, dass 95% der Full-HD-Kisten nicht ansatzweise an das PAL-Bild meines KDL-32D3000 heranreichen, welchen ich aus genau diesem Grunde auf verschlungenen Wegen erworben habe, als dieser eigentlich bereits ein Ausläufer war und (zumindest für den deutschen Markt) schon gar nicht mehr produziert wurde.

Konti schrieb:
Analoge Bildübertragung von Graka zu Monitor macht heute überhaupt keinen Sinn mehr.
Würde ich so pauschal ebenfalls nicht unterschreiben. Mein 24" mit 1920x1200er Auflösung zeigt am Analog-Ausgang meiner MATROX(!)-Grafikarte ein nahezu ebenso perfektes (scharfes, ruhiges) Bild wie am DVI-Ausgang der selben Karte – und das sicher nicht, weil die DVI-Signalverarbeitung bei einem von beiden oder gar bei beiden so schlecht wäre, sondern weil die analoge Signalqualität einer MATROX die von nahezu sämtlichem ATI-/nVidia-Gamer-Geraffel locker in die Tasche steckt, und weil SAMSUNG offenbar noch auf gute Signalverarbeitung am VGA-Port achtet ;)

Übrigens auch einer der Gründe, warum die FireGLs und die Quadros so horrend teuer sind bzw. waren ...
 
Zuletzt bearbeitet:
Prinzipell = in der Theorie vielleicht, in der Praxis sieht das aber oft anders aus. So bieten viele "HD Ready"-TVs mit 1366x768 Pixeln ein deutlich besseres PAL-Bild (720x576 Pixel) als die meisten top-aktuellen, teilweise um ein Vielfaches teureren "Full HD"-Glotzen mit 1920x1080 Pixeln ... einfach weil die Differenz zwischen originaler und interpolierter Auflösung nicht so hoch ist, und/oder weil bei den älteren Geräten noch mehr Augenmerk auf vernünftige PAL-Darstellung gelegt wurde.
Die Zielauflösung spielt keine Rolle. Vernünftige Scaler arbeiten sowieso mit mehrfachem Oversampling. Das Problem beim Vergleich ist diesbezüglich einfach, dass es Unterschiede in der Elektronik selbst gibt. Mit identischer Scaling-Engine ist auch das Ergebnis vergleichbar. Wunderbar sehen (bzw. in diesem Fall eben nicht sehen ;-) ) kann man das, wenn man z.B. einen externen Videoprozessor mal mit entsprechenden Displays (WXGA und FullHD) betreibt und ein SD-Signal auf Panelauflösung skaliert.

Genau darauf wollte ich hinaus – dass eine 10-Bit-LUT sicherlich Vorteile gegenüber einer 8-Bit-LUT bietet, aber auch nicht viel rausreißen kann, wenn das eingespeiste Signal nur 8 Bit pro Farbkanal liefert.
Je nachdem, was für Operationen auf dem Signal durchgeführt werden, kann der Unterschied schon beträchtlich sein (Extrembeispiel wäre jetzt ein "einfacher", meist wenig neutraler Bildschirm im Vergleich zu den hardwarekalibrierbaren Geräten ab dem (semi-)professioniellen Bereich => bei Erstem wird spätestens nach der Softwarekalibrierung unschönes Banding sichtbar sein, da die Korrekturen über die Grafikkarten-LUT und die Einstellungen am Display selbst eben nicht "verlustfrei" sind). Insofern macht das gerade im Bereich der EBV schon Sinn - und dort sind ja auch alle Geräte entsprechend ausgerüstet. Selbst im gehobenen Consumerbereich findet man inzwischen elektronikseitig recht potente Geräte (LUT/ Processing >= 10-Bit und umfangreiche Bordmittel, die immer häufiger auch einen durchaus brauchbaren sRGB-Modus bei WCG-Geräten beinhalten).

Gruß

Denis
 
Zuletzt bearbeitet:
Schrieb ich nicht just unter letzterem Zitat – sogar mit Verweis auf die entsprechende Stelle in deinem Posting – dass ich da wohl falsch lag? :rolleyes:

Nicht, dass ich inzwischen dran glaube, dass eine 10-Bit-LUT so viel ausmacht wie ein von vorne herein höherbittiges Eingangssignal, mir fehlt es allein an der Kompetenz, dies wirklich beurteilen zu können. Daher nehme ich in dem Fall lieber deine Beurteilung an, als mich um Kopf und Kragen zu schreiben.

Anders sieht es da schon mit dem anderen Thema aus:

Die Zielauflösung spielt sehr wohl eine Rolle. Je höher die Differenz zwischen Ursprungs- und Zielauflösung, desto mehr muss gerechnet werden, um ein ansprechendes Ergebnis zu erhalten. Und das packen die meisten schwachbrüstigen Prozessoren in Consumer TVs einfach nicht! Angesichts dessen bedeutet das Heranziehen eines externen Videoprozessors (der mehrfach so viel kostet wie ein komplettes TV dieser Gattung) Äpfel mit Birnen zu vegleichen ...

Wie schon mehrfach betont: Theorie und Praxis sind meist zwei verschiedene Paar Schuhe.
 
Angesichts dessen bedeutet das Heranziehen eines externen Videoprozessors (der mehrfach so viel kostet wie ein komplettes TV dieser Gattung) Äpfel mit Birnen zu vegleichen ...

Wie schon mehrfach betont: Theorie und Praxis sind meist zwei verschiedene Paar Schuhe.
Wie gesagt, die Zielauflösung spielt keine Rolle. Ein Videoprozessor ist deswegen so ideal, weil die Scaling-Engine identisch bleibt. Genau das kannst du beim Vergleich zwischen einem WXGA und FullHD (und auch zwischen Bildschirmen mit gleicher Panelauflösung) nicht sicherstellen. Du vergleichst also die Qualität des Scalers - hier kommt es freilich zu teils erheblichen Unterschieden zwischen den Geräten.

Nicht, dass ich inzwischen dran glaube, dass eine 10-Bit-LUT so viel ausmacht wie ein von vorne herein höherbittiges Eingangssignal,
Das ist auch überhaupt nicht das Ziel der Übung. Es geht "nur" darum, dass Veränderungen am Signal sich sonst direkt auf den Tonwertumfang auswirken. Man will also die originären 8-Bit pro Kanal möglichst erhalten. Und ja, das führt bereits zu erheblichen Unterschieden, insbesondere in Bezug auf den Tonwertumfang nach einer Kalibration. Ideal ist in diesem Zusammenhang natürlich ein hardwarekalibrierbarer Bildschirm. Aber auch ein Bildschirm mit potenter Elektronik und umfangreichen Bordmitteln bietet hier einen fassbaren Mehrwert: Man führt ihn faktisch verlustfrei mit Einstellungen am Gerät an die Kalibrationsziele heran, und wenn er sich halbwegs neutral verhält, fallen auch die verlustbehafteten Korrekturen über die Grafikkarten-LUT gering aus.

der mehrfach so viel kostet wie ein komplettes TV dieser Gattung
Sind inzwischen im gehobenen Consumerbeich angekommen. Kommt natürlich immer darauf an, was man haben möchte. Es muß nicht gleich ein Radiance von Lumagen sein, bei dem man, neben dem ring-free Scaling, auch noch ein full featured CMS mitbekommt - DVDO bietet mit dem Edge einen ziemlichen Preisbrecher an.

Gruß

Denis
 
Zuletzt bearbeitet:
Red ich mit ner Wand :confused_alt:

1. wurde bereits hinreichend beantwortet (im Zitat jedoch die entscheinde Stelle, die den letzten Satz im Zitat belegt, weggelassen ... sauberer Stil :rolleyes:), und

2. ging es genau darum, ob ein höher aufgelöstes Signal mehr bringt als dessen nachträgliche Optimierung, und eben nicht darum, ob eine höherbittige LUT überhaupt etwas bringt oder aber gar nix. Das war nie mein Thema, auch wenn es aus dem Zusammenhang gerissen so klingen mag – d.h. letzteres würde ich für sich genommen nie behaupten.
 
Red ich mit ner Wand
Im Sinne der Diskussionskultur halte ich das für wenig förderlich.

wurde bereits hinreichend beantwortet
Mir war nicht bewusst, dich hier angegriffen zu haben. Ich denke, die Antwort wird auch für den ein oder anderen Leser hier interessant gewesen sein, denn:

Je höher die Differenz zwischen Ursprungs- und Zielauflösung, desto mehr muss gerechnet werden, um ein ansprechendes Ergebnis zu erhalten.
trifft einfach nicht zu. Keine halbwegs vernünftige Lösung im TV-Bereich arbeitet so einfach, sondern immer mit mehrfachem Oversampling, d.h. es wird ohnehin zunächst auf eine weit höhere als die Panelauflösung skaliert. Die Differenz von Quell- zu Zielauflösung ist nicht ausschlaggebend (auf dem Papier ist ein gerader Faktor, den man z.B. für PAL-SD dadurch erreichen kann, dass das 576 Zeilen Eingangssignal auf 540 Zeilen im Rahmen des Overscans beschnitten wird, etwas im Vorteil => in der Praxis tut sich aber auch das nichts, damit ist ein FullHD Bildschirm also auch nicht besser geeignet, was ebenfalls gerne insistiert wird).

Insofern: Ja klar gibt es große Unterschiede zwischen einzelnen TVs und vielleicht hat man gerade in der ersten Zeit bei den teureren FullHD Panels dann an der Elektronik etwas gespart (letztlich tut man das durch die Bank weg noch immer bei den integrierten Lösungen, aber es wird schon besser - großer Handlungsbedarf besteht vor allem noch im Bereich des Video-Mode-Deinterlacing), aber ich will weg von diesem "physikalischen Zusammenhang" zwischen Eingangsauflösung und Panelauflösung in Bezug auf die Bildqualität. Vielleicht mißverstehen wir uns da auch nur.

ging es genau darum, ob ein höher aufgelöstes Signal mehr bringt als dessen nachträgliche Optimierung, und eben nicht darum, ob eine höherbittige LUT überhaupt etwas bringt oder aber gar nix. Das war nie mein Thema, auch wenn es aus dem Zusammenhang gerissen so klingen mag – d.h. letzteres würde ich für sich genommen nie behaupten.
Eine höherbittige LUT würde ich jetzt nicht als Optimierung bezeichnen. Aber richtig: Grundsätzlich bringt eine Zuspielung mit 10-Bit pro Kanal natürlich einen von Grund auf deutlich höheren Tonwertumfang, sofern die gesamte Kette das unterstützt. Aber auch in diesem Zusammenhang ist eine entsprechend leistungsfähige Elektronik (state of the art sind derzeit eine 12-Bit 3D-LUT und 16-Bit Processing mit 8-/10-Bit Panel und FRC-Dithering) wichtig. Insofern müssen wir zwischen Zuspielung und Verarbeitung einfach strikt trennen. Das Eine will das Andere nicht ersetzen bzw. "emulieren".

Gruß

Denis
 
Zuletzt bearbeitet:
Sailor Moon schrieb:
Im Sinne der Diskussionskultur halte ich das für wenig förderlich.
Wenig förderlich im Sinne der Diskussionskultur ist ein Antwort- (und Zitat-)verhalten, welches zu begründeten Äußerungen wie meiner oben zitierten anregt.

Mir war nicht bewusst, dich hier angegriffen zu haben.
Das oben bemängelte Kommunikationsverhalten hat nix mit angegriffen fühlen zu tun (was ich auch nicht angedeutet habe), sondern mit genervt sein (was ich unmissverständlich zum Ausdruck brachte).

Ich denke, die Antwort wird auch für den ein oder anderen Leser hier interessant gewesen sein
Nicht wirklich, da es eben keine tatsächliche Antwort, sondern die Wiederholung eines früheren Statements auf Teile meiner Aussagen war, die andere Teile außer acht ließ ... und da du auch im Nachfolgenden überwiegend weiter theoretisierst, werde ich auch keine weitere Zeit damit vergeuden darauf hinzuweisen, was warum in der Praxis nachweislich wie aussieht.

Die im allgemeinen schlechtere PAL-Darstellung auf Full-HD-Geräten im Vergleich zu guten HD-Ready-Modellen ist ein Fakt, der sich nicht wegdiskutieren lässt. Gerne bin ich bereit über Gründe zu reden, warum dem so ist (einen – unbeachteten – habe ich genannt: Prozessorlast im Zusammenhang mit der anfallenden Datenmenge), nicht jedoch über rein theoretische Gründe, warum etwas eigentlich nicht so sein dürfte, wie es in der Praxis aber nun mal überwiegend ist.

Aber grundsätzlich bringt eine Zuspielung mit 10-Bit pro Kanal natürlich einen von Grund auf deutlich höheren Tonwertumfang, sofern die gesamte Kette das unterstützt.
Von nichts anderem habe ich gesprochen (s. #61) ...

Aber auch in diesem Zusammenhang ist eine entsprechend leistungsfähige Elektronik wichtig.
... nichts anderes als dies behauptet (s. #XX) ...

Insofern müssen wir zwischen Zuspielung und Verarbeitung einfach trennen.
... und auf nichts anderem als diesem meinerseits bestanden (s. #98).


Ergo: *** TRANSMISSION END ***


EDIT/Hinweis: "Geändert von Sailor Moon (Heute um 22:40 Uhr)" = einige Zeit nachdem ich mit der Beantwortung obigen (nachträglich editierten) Postings begann bzw. dieses in der ursprünglichen Form gepostet wurde.

Ersetze "Antwort- (und Zitat-)verhalten" durch "Antwort-, Zitat- und Editierverhalten" :p
 
Zuletzt bearbeitet:
Zurück
Oben