Es geht mir um das Interpolationsverhalten von TFT Monitoren.
Derzeit ist es ja so, dass TFTs einfach eine nicht-native Auflösung (falls auf die gesamte Fläche gedehnt) einfach so darstellt und damit ein erheblicher Schärfeverlust entsteht.
Ich hab mal gelesen, dass der Eizo S2110W das Bild auf die native Auflösung resizt und somit nur nativ darstellt. Dadurch wird ein möglichst gutes Bild erreicht. Ich war mir eigentlich sicher, dass ich es bei Prad gelesen hab.
Auf alle Fälle frag ich mich, warum man das Interpolieren des Bildes nicht der Graka überlässt, also das fertige Bild, das eigentlich zum Monitor abgeschickt werden soll (z.B. 1280x800), grafikintern auf 1680x1050 hochwertig resizt und so zum Monitor sendet.
Eigentlich müsste die Qualität somit deutlich zunehmen. Einen Leistungsverlust für Spiele (wo es ja am wichtigsten ist) würde ich eher für sehr gering einschätzen.
Wo liegt der Grund? Hat noch niemand darüber nachgedacht? Gibt es dahingehend ein Problem, das sich dafür nicht auszahlen würde? Ich wüsste nicht wieso. Schließlich besitzen alle Monitore oder Fernseher native Auflösungen und da stellt sich diese Frage umso eher. Somit wäre man wenigstens nicht mehr auf schlechte Interpolationsverhalten von weniger hochwertigen bis minderwertigen Monitoren angewiesen.
Derzeit ist es ja so, dass TFTs einfach eine nicht-native Auflösung (falls auf die gesamte Fläche gedehnt) einfach so darstellt und damit ein erheblicher Schärfeverlust entsteht.
Ich hab mal gelesen, dass der Eizo S2110W das Bild auf die native Auflösung resizt und somit nur nativ darstellt. Dadurch wird ein möglichst gutes Bild erreicht. Ich war mir eigentlich sicher, dass ich es bei Prad gelesen hab.
Auf alle Fälle frag ich mich, warum man das Interpolieren des Bildes nicht der Graka überlässt, also das fertige Bild, das eigentlich zum Monitor abgeschickt werden soll (z.B. 1280x800), grafikintern auf 1680x1050 hochwertig resizt und so zum Monitor sendet.
Eigentlich müsste die Qualität somit deutlich zunehmen. Einen Leistungsverlust für Spiele (wo es ja am wichtigsten ist) würde ich eher für sehr gering einschätzen.
Wo liegt der Grund? Hat noch niemand darüber nachgedacht? Gibt es dahingehend ein Problem, das sich dafür nicht auszahlen würde? Ich wüsste nicht wieso. Schließlich besitzen alle Monitore oder Fernseher native Auflösungen und da stellt sich diese Frage umso eher. Somit wäre man wenigstens nicht mehr auf schlechte Interpolationsverhalten von weniger hochwertigen bis minderwertigen Monitoren angewiesen.