Unterschied zwischen DVI und VGA

Master-Jule

Ensign
Registriert
Okt. 2006
Beiträge
228
Hi,
ich habe mal eine Frage worauf ich noch keine wirklich Antwort gefunden habe.
Habe mir auch den http://de.wikipedia.org/wiki/DVI-D
durchgelesen, hilft mir aber auch nicht so sehr weiter bzw. wirft noch eine zweite Frage auf.
Also
1. Was ist der Unterschied zwischen digital(DVI) und analog(VGA)? auch physisch betrachtet. Weil alle Leute sagen immer DVI ist die digitale schnittstelle und vga analog etc. aber das sagt für mich nicht wirklich aus was da anders ist, ausser dass die anschlüsse anders aussehen und unterschiedliche pin-anzahlen haben o_O
2. Dann hat sich mir noch die Frage ergeben wieso DVI-Kabel nur maximal 5m lang sein können (steht im lexikon).

vielleicht versteht ihr ja meine frage und könnt mir das mal erklären ;)
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
Bei den digitalen Verbindungen hast du im Gegensatz zu den analogen keinerlei Verluste.
Mit DVI wirkt das Bild auf nem TFT um einiges schärfer als mit VGA.
Also wenn du die Wahl hast zwischen DVI und VGA dann nimm DVI!

Gruß Timo
 
Die Grafikkarte erzeugt ein digitales Bild, gehe ich über D-SUB (VGA) muss es analog umgewandelt werden und im TFT wieder in ein digitales umgewandelt werden.
Was einen Qualitätsverlust bedeutet, wenn auch nicht weltbewegend. ;)
Ausserdem ist VGA Störungsanfällig, gegenüber DVI.

Die Frage wurde hier aber bestimmt schon einige male behandelt. ;)

D-Sub
DVI
Monitor Lexikon
 
Zuletzt bearbeitet:
Also das Bild ist gestochen Scharf... und ich benutze VGA (3 Meter)
DVI Nutz ich sobald ich meinen Rechner woanders (zB Lan) stehen habe, aber ich sehe keinen aber absolut keinen Unterschied auch wenn ich beide Kabel anschließe und umschalte für einen direkten Vergleich.
 
Hallo,

ein Unterschied zwischen DVI und VGA liegt zum einen in der unterschiedlichen Bauweise zu Grunde. VGA ist "lediglich" mit 15 pin´s ausgestattet während DVI mit bis zu 29 pin´s ausgestattet sein kann. Dadurch ist eine größere Daten Übertragung möglich. Bei DVI wird das Signal, wie von der Grafikkarte berechnet, nämlich Digital an den Monitor weitergegeben. Bei VGA wird das Digital errechnete Bild erst in ein analoges Signal umgewandelt und anschließend an den Monitor gesendet, dieser wandelt es dann wieder in ein Digitales Signal um und stellt es dar.
Man geht davon aus, dass DVI eine 15% besser Bilddarstellung als VGA hat, jedoch kann dies von Monitor zu Monitor unterschiedlich sein. Ein weitere Unterschied liegt in der Verzollung so ist ein VGA Monitor bisher Zollfrei und ein DVI Monitor kostet eben, deswegen sind diese auch, meistens wesendlich teurer.
Zu deiner Frage warum die Kable nur Max 5m lang sein dürfen, dies hat etwas mit dem Eigenwiderstand, sowie mit der Schirmung der Kabel zu tun, auf größere Distanzen könnten die Signale dann nur mit Verlusten übertragen werden, prinzipiell ist es also möglich, die Hersteller gewähren halt nur eine „hervorragende“ Qualität mit 5m.

Grüße

lots
 
Im Klartext heißt es:
Signal vom DVI:
Einsen und Nullen (Digital)

Signal vom VGA:
Strom und kein Strom (analog)
 
vielen dank für eure antworten, ich glaube der letzte post hat meine frage auch super beantwortet ;)
 
Ich hab nen Bildschirm der VGA und DVI kann.
-> beides angeschlossen
-> Source geswitched
-> keinen Unterschied bemerkt...

Also für Ottonormalverbraucher, wie mich, ist kein Unterschied zu erkennen. ;)
 
Nur, dass ich das nun nicht mehr verstehe:

1 bzw. 0, wovon man in der Informatikso gerne redet ist nichts anderes als Strom an, Strom aus für den Comp.

Vielmehr liegt meines wissens der Unterschied darin, dass das DVI-Signal tatsächlich im 0/1-System kodiert ist bei analog, der Strom aber verschiedene Werte hat und das unterschieden wird

Modell:

Digitale Übertragung:

1100 für z.B. rot1
1101 für z.B. rot2
1110 für z.B. rot3

...

Analoge Übertragung:

3V 0,99A für rot1 (völlig aus der Luft gegriffen)
3V 1A für rot2
3V 1,01A für rot3

...

Daher nimmt man auch DVI- ist weniger Ströranfällig - bessere Leistung
 
Kurz und prägnant:
Bei digitaler Übertragung kommt das Signal genau so an, wie es abgesendet wurde. Es gibt keine Wandlung und ergo auch keine Verfälschungen.
Bei analoger Übertragung gibt es diese Sicherheit nicht und bei der Wandlung können Signalverfälschungen auftreteten, was haptsächlich von der Qualität und der Länge des Kabels abhängt. Vefälschungen können sein:
- leichtes "Flirren" um Kanten herum
- verfälschte Farbwerte
- im Extremfall unscharfes Bild
etc.

Weiterer Faktor, der die Bildqualität bei analoger Übertragung beeinflussen kann ist die Qualität der DA- bzw. AD-Wandler.

Zusammenfassend:
VGA kann durch viele Faktoren beeinflusst/verfälscht werden
DVI nicht
 
also ich habe zwei pcs an mein tft angeschlossen. einer ist per dvi und der andere per vga angeschlossen und ich sehe einen recht deutlichen qualitätsunterschied zugunsten dvi.
 
DarkMallak schrieb:
Ich hab nen Bildschirm der VGA und DVI kann.

Also für Ottonormalverbraucher, wie mich, ist kein Unterschied zu erkennen. ;)


Sofern der TFT richtig auf das analoge Signal synchronisieren kann ist da auch kein Unterschied zu sehen, die Qualitaet ist identisch.


hardwärevreag schrieb:
Analoge Übertragung:

3V 0,99A für rot1 (völlig aus der Luft gegriffen)
3V 1A für rot2
3V 1,01A für rot3

Es wird nicht der Strom geaendert sondern die Spannung, maximaler Pegel sind 700mV, minimaler sind 0mV.

Alle drei Kanele auf 0mV = schwarz
Alle drei Kanele auf 700mV = weiss
 
Zuletzt bearbeitet:
Für mich der grösste Vorteil von DVI: Das ständige Bildanpassen beim Auflösungswechsel entfällt, da der Monitor per DVI immer optimal eingestellt ist. Ich habe die Knöpfe meines Monitors (Acer AL1721M per DVI) schon seit 2 Jahren oder so nicht mehr angefasst, ich weiss gar nicht, ob die noch funktionieren. :D

Stats-Paddi schrieb:
Im Klartext heißt es:
Signal vom DVI:
Einsen und Nullen (Digital)

Signal vom VGA:
Strom und kein Strom (analog)

Du weisst aber schon, dass "Strom und kein Strom" auch binär ist? Wenn dann schon "mal mehr, mal weniger Strom". Das ist dann analog. So, genug geklugschei*ert. ;)
 
Man sollte vielleicht noch erwähnen, das DVI nicht unbedingt heißt, dass es Digital ist.

DVI ist nur der Schnittstellenstandard. DVI-D überträgt digital, DVI-A analog und DVI-I überträgt beides.


Und dann noch einmal etwas zur grundlegenden Definition von Analog und Digital. Es lässt sich wirklich in sehr wenigen Worten beschrieben:

Digitale Signale sind immer wert- und zeitdiskret.
Das heißt, dass alles immer in bestimmten Schritten vorliegen muss. Zum Einen können die Signale nur in genau festgelegten Zeitabständen wechseln und zum Anderen können die Spannungen nur zwischen festen Spannungsniveaus hin und her wechseln.

Analoge Signale sind hingegen wert- und zeitkontinuierlich.
Dort kann zu jedem beliebigen Zeitpunkt jede beliebige Spannung anstehen.


Natürlich gibt es auch Mischformen, bei denen zum Beispiel der zeitliche Ablauf digital ist und die Spannungen analog oder auch umgekehrt, bei denen der zeitliche Ablauf fortlaufend ist, aber die Spannungen nur feste Werte annehmen können. Es lassen sich aber auch digitale Signale analog kodieren und übertragen und so weiter und so fort.

Als grundlegende Definition braucht man sich aber eigentlich nur die beiden Fett geschriebenen Sätze merken. Damit hat man genau den Unterschied zwischen Analog und Digital erklärt.
 
Zuletzt bearbeitet:
Zurück
Oben