Re: LG1710B
Original erstellt von SPRENGER
Ich kann es nicht beweisen, aber ich glaube das der DVI-Eingang besser interpolieren kann, als der RGB.
Nun, dann werde ich mal die Beweisführung übernehmen.
Erstens ist es nicht der Eingang der die Interplierung durchführt sondern die Monitorelektronik. Daß kleine Alu-Pins zu irgendwelchen Berechnungen in der Lage sind, ist mir neu.
*Krümelkack-Modus off*
nun mal Sachlich
Das Bild am VGA-Ausgang der Grafikkarte wird durch den RAM-DAC erzeugt, bei dem die digital vorliegenden Bildinformationen in analoge RGB-Daten umgewandelt werden (DAC - Digital Analog Converter).
Gelangen diese nun zum TFT-Monitor sind sie in Form von analogen Daten allen Umwelteinflüssen ausgesetzt, selbst ein gut abgeschirmtes Kabel kann keine Wunder bewirken.
Nun sind die Daten am Monitor angelangt. Allerdings kann ein TFT mit analogen Daten nix anfangen. Was macht er? Richtig, er wandelt sie wieder zurück in digitale Daten.
Wer sich schonmal mit der Materie beschäftigt hat (vielleicht auch im Audio-Bereich) weiss, daß eine doppelte Konvertierung nicht ganz verlustfrei geschehen kann.
Somit sieht das VGA-Bild, was am TFT ankommt, schonmal nicht perfekt aus.
Anderes Bild beim DVI.
Am RAM-DAC vorbei, bekommt der TFT die digitalen Daten direkt vom Grafikchip. Da die Daten digital sind, sind sie auf dem Weg zum Monitor auch weitesgehend von Störeinflüssen bewahrt. Eine Konvertierung der Daten ist nicht nötig.
Ergebnis: ein scharfes, flimmerfreies uns exzelentes Bild.
Wenn jetzt noch die Interpolierung dazukommt, hat der VGA verspielt, da der Matsch nur noch matschiger wird, wärend das DVI-Signal weniger Verlust zu erleiden hat, da das Ausgangssignal (vor der Interpolierung) perfekt war.
Mittels DVI hab ich aus meiner GF3Ti200, welche auf meinen CRT einen wundervollen Matsch gezaubert hat, ein einwandfreies Bild entlocken können. Und die GF3 war nicht gerade berühmt für ihre Bildqualität.