Warum können nicht die Grakas interpolieren?

Deinorius

Captain Pro
Registriert
Juni 2005
Beiträge
3.419
Es geht mir um das Interpolationsverhalten von TFT Monitoren.

Derzeit ist es ja so, dass TFTs einfach eine nicht-native Auflösung (falls auf die gesamte Fläche gedehnt) einfach so darstellt und damit ein erheblicher Schärfeverlust entsteht.
Ich hab mal gelesen, dass der Eizo S2110W das Bild auf die native Auflösung resizt und somit nur nativ darstellt. Dadurch wird ein möglichst gutes Bild erreicht. Ich war mir eigentlich sicher, dass ich es bei Prad gelesen hab.

Auf alle Fälle frag ich mich, warum man das Interpolieren des Bildes nicht der Graka überlässt, also das fertige Bild, das eigentlich zum Monitor abgeschickt werden soll (z.B. 1280x800), grafikintern auf 1680x1050 hochwertig resizt und so zum Monitor sendet.
Eigentlich müsste die Qualität somit deutlich zunehmen. Einen Leistungsverlust für Spiele (wo es ja am wichtigsten ist) würde ich eher für sehr gering einschätzen.

Wo liegt der Grund? Hat noch niemand darüber nachgedacht? Gibt es dahingehend ein Problem, das sich dafür nicht auszahlen würde? Ich wüsste nicht wieso. Schließlich besitzen alle Monitore oder Fernseher native Auflösungen und da stellt sich diese Frage umso eher. Somit wäre man wenigstens nicht mehr auf schlechte Interpolationsverhalten von weniger hochwertigen bis minderwertigen Monitoren angewiesen.
 
ganz einfach, der aufwand währe garnicht soo gering, wie du denkst. bei spielen müsste die graka erst alles in der auflösung berechnen, in der du spielst (bsp. 1440*900 @20" -->1680*1050), nur um dann alles auf die native auflösung des monitors hoch zu rechnen, sprich es müsste alles entweder 2 mal gerechnet werden, oder es würde verzögert ablaufen, oder du hast den entsprechenden unschärfe effekt, den monitore sowieso haben. die alternative, erst einen chip fürs interpolieren zu entwickeln und auf die platine zu löten, fällt aus kostengründen weg. selbes gilt für monitore, bessere filter zum interpolieren würden transistoren etc benötigen, die das gewicht und die größe von tft's wieder ansteigen lassen, vom preis mal ganz zu schweigen. das sinnvollste währe, auflösungen zu verwenden, die den nativen am ehesten entsprechen (mit 1440*900 hab ich z.b. noch ein recht gutes bild bei einer nativen auflösung von 1680*1050)

EDiT: was den Eizo angeht: Preis und größe entsprechen den von mir angesprochenen punkten, fast 1000 € für einen 21" TFT mit mäßiger reaktionszeit sind nicht zeitgemäß und stehen in keinem verhältnis, sowas macht nur sinn, wenn man auf resizing angewiesen ist, weil man z.b. nicht in der nativen auflösung arbeiten kann (solls ja geben unter unix/linux z.b.)...
 
Zuletzt bearbeitet:
Der Preis des Eizo entsteht durch weit aus mehr Punkte als das Interpolationsverfahren, was schon an der Hintergrundbeleuchtung liegt. Und die mäßige Reaktionszeit kann ich nicht nachvollziehen. Die ist niedrig und das zeigt sich auch beim Spielen. Wir wollen doch nicht wieder behaupten, dass 4 ms weit aus besser sind als 16. ;)

Ich kann zwar nicht behaupten zu wissen, wieviel Aufwand hinsichtlich Transistoren oder Mehrkosten eine zusätzliche Interpolationsphase in Anspruch nehmen würde, aber aufgrund der Tatsache, dass es wohl kaum Monitore geben wird, die ein gleiche Verhalten aufweisen wie CRTs, sollte man schon darüber nachdenken.
Früher oder später wäre also so ein Schritt durchaus empfehlenswert und bei immer kleiner werdenden Chips und immer leistungsfähigeren GPUs müsste das alleinige Resizen immer weniger Leistung im Verhältnis beanspruchen.
Heutige GPUs haben ja immer noch 2xRAMDAC. Die sind ja eigentlich nur für digitale Ausgänge. Später werden diese immer weniger wichtig sein und vielleicht rauskommen. Da kann man genauso gut als Ersatz Interpolationstransistoren einsetzen.

All diese Worte stammen von einem Menschen, der sich das alles nicht fachmännisch vorstellt, also nicht hauen. :D
 
ich versuche nur beide seiten zu beachten, zum einen die entwickler/wirtschaft, zum anderen den endkunden, der geld für den monitor hinblättert ;)

und der unterschied ist durchaus gegeben, die hersteller angaben sind sowieso nach hausinternen Verfahren, die keiner mir bekannten DIN entsprechen müssen, gemessen (Hersteller geben immer den grey-to-grey wert an, interessant sind aber rise/fall und cmyk bzw RGB wechsel, die wesentlich länger brauchen, und da sind 16 ms im gegensatz zu 4 ms doch schon deutlich mehr...

wie gesagt, im gaming bereich wirds wohl kaum passieren, das sich diese technik durchsetzt, und da wo es wichtig bzw sinnvoll ist, kommts nicht auf reaktionszeiten drauf an, was die entwicklung der von dir angesprochenen technik nicht grade beschleunigt. klar würde ich so eine technik auch in hochwertigen TFT's sehen, die zum spielen mehr als geeignet sind und vorallem bezahlbar bleiben ;)
 
Du verstehst nicht, worauf ich hinaus wollte. Ob 16 ms oder 4, das merken auch nur die wenigsten. Hängt teilweise auch vom Spiel ab. Ich spiele keine Ego-Shooter (mit seltener Ausnahme auf Konsolen) und somit bleibt das ms-Theater aus dem Spiel. Gilt für viele so.

Da hast du wohl Recht. Vielleicht wird ja Matrox dieses Feature irgendwann integrieren. :D
Du sagst, dass 1440x900 über 1680x1050 noch gut aussehen. Welchen Monitor hast du eigentlich und wie sieht 1280x800 aus?
 
ich hab seit gestern einen Samsung SyncMaster 205BW 20" :) --> 1440*900 vorab eingestellt und monitor angeschlossen = gutes bild (zumindest scharf) der unterschied zu 1680*1050 ist zwar erkennbar, allerdings etwa so groß, wie der unterschied zwischen den Schulnoten "1" und "2" ;)
die Hardwarenative resolution, 1680*1050, ist halt gestochen scharf, ansonsten gibt es keinen gravierenden unterschied. Wie das mit 1280*800 ausschaut, kann ich erst heute abend testen, wenn ich von der arbeit zurück bin (und auch nur, wenn ich die Zeit dafür hab). Was Matrox angeht, könnte ich mir vorstellen, das sie das Feature am ehesten auf ihre grafikkarten integrieren und ATI/nVidia das dann Lizensieren und darauf basierend eigene chips entwickeln, aber time will tell - ich glaube nicht daran, das in naher zukunft (2 - 4 Hardwaregenerationen aka 1 - 2 jahre) etwas passieren wird, solange werden die Monitor Hersteller wie Eizo daran werkeln müssen und damit Aufmerksamkeit auf sich ziehen. Und solange das nicht der Fall ist, müssen wir Endbenutzer halt entsprechende auflösungen im Seitenverhältnis unserer Geräte benutzen ;)

btw: Schlieren bzw der Tearing-effekt treten auch bei Strat. games auf, nicht so stark, aber doch vorhanden, schliesslich bewegst du deine Maus ja auch ab und an mal schnell ;)

EDiT: hab grad festgestellt, das 1440*900 nur geht, wenn du dir nen eigenen monitortreiber schreibst (was ich eigendlich schon immer gemacht hab, weil mein "alter" Iiyama Monitor keine gescheiten treiber hat --> powerstrip hilft da weiter ;)).
1280*800 sieht auf dem 20 zöller irgendwie aus, wie 1024*768 auf nem 19" CRT mit total verwaschener schrift (allerdings nur die schrift).
 
Zuletzt bearbeitet:
Hallo,
so ganz kann ich hier nicht folgen.

Wieso sollte das Bild besser aussehen, wenn es auf der Grafikkarte und nicht im TFT interpoliert wird? Ausschlaggebend sollte das jeweilig verwendete Interpolationsverfahren sein. Welcher Hersteller das in seinem Produkt wie verbaut, steht doch auf einem anderen Papier. Hinzu kommen einfach Grenzen, die sich nicht überwinden lassen. Man kann von 640x480 Pixeln Bild auf einem 30" Display keine Schärfe erwarten. Entweder es sieht unheimlich kantig aus oder man glättet es bzw. zeichnet es weich.

Übrigens gibt es die "Berechnung auf der Grafikkarte" schon. Der hier per DVI an eine FX5900 angschlossene Eizo M1700 lässt sich über den nVidia-Treiber in den "Einstellungen für digitalen Flachbildschirm" wie gewünscht einrichten. Dafür muss man eine der folgenden Optionen wählen:

Bildschirmadapterskalierung: Pixel-Stretching durch Grafikkarte
Zentrierte Ausgabe: keine Skalierung
Monitorskalierung: Pixel-Stretching im TFT
Skalierung mit festem Seitenverhältnis: Skalierung des Bildes durch Grafikkarte

Letztere Option ist mein Favorit. Damit sehen auch 4:3 Spiele mit niedrigen Auflösungen auf einem 1280er 5:4 TFT originalgetreu aus. Das Seitenverhältnis passt; es entstehen schwarzen Balken am oberen und unteren Bildrand. Die Schärfe lässt je nach Spieleauflösung zu wünschen übrig - klar.


MfG, Gobble-G


Edit: Obige Erfahrung wurde unter Windows XP gemacht...
 
@da!mon
Und wie wirken sich die Unterschiede bei den Auflösungen in Spielen aus? Das ist doch das Wesentliche. ;) Oder war das schon in Spielen gemeint?

@Gobble-G
Nun ich denke es mir so. Interpolieren ist ja im Grunde die Darstellung einer niedrigeren Auflösung auf einem nativen Panel. Dabei wird z.B. ein Punkt durch 4 Pixel dargestellt, der nativ nur einen Pixel bräuchte.
Wird das Bild in Vorhinein auf die native Auflösung resizt, dann müsste sich die Anzeige doch deutlich positiv auswirken, da ein korrekt resiztes Bild dargestellt werden kann. Fehler werden zwar nicht ausgemerzt, aber deutlich minimiert.

Die Treiberoptionen haben mit meiner Vorstellung nix zu tun. Das ist ne andere Geschichte.
 
@Gobble-G: wir reden hier von Hardwareseitiger interpolation, und nicht über die treiber unter windows ;)

@Deinorius: imo sehen spiele nicht wesentlich schlechter aus als in der nativen auflösung des monitors (unter windows gibts grafikmatsch, wenn ich versuche 1280*800 in fullscreen auf den monitor zu zaubern), windows läuft bei mir eigendlich nur in 1680*1050
 
Zurück
Oben