VGA oder DVI

@kisser: Das Bildsignal Analog ist mehrfach umgewandelt und immer mit
Leistungsverlusten verbunden. Deswegen wird das unumgewandelte DVI-Bild auch als
"schärfer" empfunden.
Wenn du keinen Unterschied über die Art der Ansteuerung erkennst ist das Analogsignal
sehr gut. In den meisten Fällen erkennt man es jedoch.
Woher kennst du die Augen von surmas so gut, daß du weißt ob er es sieht?

@bonuty1410: Es ist durchausmöglich, daß die D/A - A/D Wandler bei diesen Frequenzen
ein besseres Bild generieren können.
 
Zuletzt bearbeitet:
kisser schrieb:
Nein, tut es nicht. Das Signal ist exakt reproduzierbar (vorausgesetzt es ist ausreichend gut, wie das bislang bei allen von mir eingesetzten Karten der Fall war, s.o.).
Wie kommst du darauf, dass es exakt reproduzierbar ist?

Eine DA - AD Wandlung führt immer zu anderen Ergebnissen. Jedenfalls in der Realität. Das hängt ja alleine schon von der qualität der Wandler ab. Dazu kommen noch Störungen auf den Leitungen und und und.
 
kisser schrieb:
Nein, tut es nicht. Das Signal ist exakt reproduzierbar (vorausgesetzt es ist ausreichend gut, wie das bislang bei allen von mir eingesetzten Karten der Fall war, s.o.).
Wie gesagt, es können an 3 Stellen Qualitätsverluste auftreten.



kisser schrieb:
Schaerfer als scharf geht nunmal nicht und das geht auch ueber den VGA.
Pauschalaussage, die nicht zutrifft. Hab schon des öfteren ein deutlich unscharfes Bild bei TFTs gesehen, wenn diese über VGA angeschlossen waren. Das ging sogar so weit, dass sehr kleiner Text (6px) nicht mehr lesbar war.
Die Qualitätsverluste sind bei senkrechten Linien am deutlichsten wahrnehmbar, z.B. schwarze senkrechte Linie auf weissem Hintergrund bekommt einen deutlichen Schatten.


kisser schrieb:
Nein, du wirst da keinen Unterschied erkennen oder zumindest keinen, der einen Rueckschluss auf die Art der Ansteuerung zulaesst.
s.o.
 
Zuletzt bearbeitet:
@bounty1410:
Anders als von hwt geschildert muß es nicht zwangsläufig "Unsinn" sein wenn man die Bildwiederholrate von 60 auf 75 Hz ändert. Wenn wir nur vom klassischen Sinn dieser Refreshrate ausgehen und ein "Flimmern" verhindern wollen macht es natürlich keinen Sinn da TFTs nicht flimmern.

Bei einem CRT gibt die Bildwiederholrate an wie oft ein Bild pro Sekunde neu aufgebaut wird.
Bei einem TFT gibt die Bildwiederholrate (in diesem Fall spricht man auch von der Panelupdatefrequenz) an wie oft ein Bild pro Sekunde neu aufgebaut werden könnte.

Viele Panels arbeiten immer mit einer fixen Panelupdatefrequenz von 60 Hz, unabhängig davon was man im Treiber einstellt. In diesem Fall ist es meist sogar schlechter wenn man im Treiber 70 oder 75 einstellt da man damit (trotz eingeschaltenem VSync) wieder einen Tearingeffekt erzeugen kann.

Wenn die interne Panelupdatefrequenz "variabel" ist und vom Treiber gesteuert werden kann dann würde ich die größtmögliche wählen. Aufgrund des häufigeren Bildaufbau kann es zu einem besseren Verhalten bezüglich Bewegungsunschärfe und Schlieren kommen.

--> surmas
 
Hab beim Wechsel des Tfts (Samsung19er auf Samsung 20er) festgestellt, dass es große Unterschiede im analog->digital-Wandler im TFT gibt.

Der 19er hat über DVI ein deutlich schärferes Bild gezeigt als über VGA, da waren die Buchstaben verschwommen beim genauen hinschauen.
Beim 20er mit gleicher Graka und Kabel war der Untschied kaum wahrnehmbar. Und das obwohl es durch die höhere Auflösung(1600x1200 statt 1280x1024) eigentlich mehr Störungen geben sollte.

Ich denke es ist halt von (TFT-)Modell zu Modell unterschiedlich.

Dafür flackern bei mir ganz bestimmte Grautöne über den DVI-Ausgang(ist reproduzierbar mit Screenshot). Schliesse ich das Display über VGA an ist es weg;)
Kommt aber nur sehr selten vor, deshalb ist mir DVI lieber für das letzte Quäntchen Schärfe.
 
Zurück
Oben