VGA oder DVI

Natscha

Newbie
Registriert
Sep. 2006
Beiträge
1
Hi

ich will mir die Woche ein BenQ FP91GX TFT Monitor kaufen, nun folgendes Problem : mein Laptop hat leider nur einen VGA Ausgang :(

Der Zusatzbildschirm soll hauptsächlich zum DVB T und DVD schauen über den Laptop genutzt werden.

Da ich leider den Unterschied von VGA an TFT und DVI an TFT noch nicht gesehen habe , könnt ihr mir vielleicht sagen ob der Unterschied so sehr extrem ist ?
bzw. ob er so extrem ist, dass man sich unbedingt eine teure Neuenschaffung, wie z.B. einen VGA DVI Umwandler kaufen muss. Vielleicht hat jemand ja noch ne andere Idee wie man das Problem lösen kann.

Bisher hatte ich diese Ideen :

Dachte als erstes an eine externe Graka, aber die Schnittstellen USB un PCMCIA sind denke ich zu langsam und eine mit DVI (wenns die überhaupt schon gibt) wäre sicherlich etwas teuer.

Zweite Idee war ne Dockingstation, ich glaube aber da ist auch nur ein Adapter VGA DVI drauf, glaube nicht das die Station die digitalen Signale der Graka abgreift oder ist das falsch ?


Nochmal kurz die Daten :

Laptop - Out : VGA
TFT - IN : DVI / VGA
Laptop Grafikkarte : Standard 128 Mb

Vielen lieben Dank schon mal im voraus
 
Zuletzt bearbeitet von einem Moderator: (Überflüssige "!!!" entfernt! Bitte Regeln lesen!)
AW: VGA oder DVI ???

Welcome @ FB :schluck:

Also mit bloßem Auge erkennt man keinen unterschied.
Ob VGA oder DVI macht auch keinen unterschied bei schlieren.
 
Das mit DVI und VGA ist Anssichtssache würde ich sagen. ;) Ich empfinde das Bild über DVI etwas besser.

mFg tAk
 
nö so ganz ist das nicht so,
also wenn man einen guten TFT hat, ist auch die normale Qualität recht Gut,

DVI bringt nur Vorteile, wenn der PC etwas weiter weg steht und man
das Kabel dann verlängern muß, so hat man beim normalen VGA herbe Verluste der Qualitlt dann , Bild wird unscharf, bei DVI nicht, das ist Vorteil,
also ich habe hier mit einem normalen TFT Benq gestrochen strafe Schrift
ja und DVB klappt auch gut. TV ist eh Pal und Pal hat nicht so eine hohe Auflösung als
der S.VGA Mode des PCs, also DVI braucht man nicht ungedingt .

Also wichtiger ist meiner Meinung nach,
das der TFT Pixel Fehler frei ist und das der BetrsachtungsWinkel nicht zu sehr
eingeschränkt ist, so wie einen einigermaßen gute Reaktionszeit hat ,
(TV kucken und zocken) ;
aber mit Benq macht man eigentlich nichts falsch sind alle ganz gut.

Die meisten machen den Fehler das die die HZ auf 70 oder 75 einstellen, das ist unsinn
60 hz reicht , ein TFT flimmert generell nicht.
 
Zuletzt bearbeitet:
Ja bei guten FTFs ist der unterschied einfach gigantisch. Haben hier auch zwei 20" TFTs per D-Sub ist das bild einfach nur unscharf und erinnert mich sofort wieder an die alten CRTs von mir. Es war auch schon ein sehr grosser Unterschied beim letzten Benq FP791 17" den ich hatte.

Je grösser der TFT ist je mehr lohnt es sich auf DVI zu setzen. Unter 17" würde ich sagen lohnt es sich nicht.

Das ist auch der grund wieso ich ein Dell Insprion 9200 mit DVI besitze ;)
 
Ich habe auch DVI, allerdings muss ich sagen, dass ich da kein besseres Bild feststellen kann. als bei VGA.
 
Einen leichten Unterschied erkenne ich schon, ob mein Monitor (FP71V+) 17" per VGA oder DVI angeschlossen ist. Allerdings ist dieser eher als sehr marginal zu bezeichnen.
 
Es kommt ja auch immer stark auf die Grafikkarte an. Einige wenige liefern ein gutes analoges Signal und die meisten leider nicht. Die standard ATi- und nVidia-Karten kann man in der Hinsicht vergessen.

Dann sieht das Bild natürlich auch nciht so gut aus. Dann ist DVI natürlich schon zu empfehlen.
 
@noxon,

Vollkommen richtig, denn....so wie ihr könnt sehen an meine signatur sieht man deutlich den unterschied wenn die graka dementsprechend ist;)
 
Zuletzt bearbeitet von einem Moderator: (Unnötiges Komplettzitat entfernt. Bitte Regeln lesen.)
@rne schrieb:
Einen leichten Unterschied erkenne ich schon, ob mein Monitor (FP71V+) 17" per VGA oder DVI angeschlossen ist. Allerdings ist dieser eher als sehr marginal zu bezeichnen.

Kann mich dem, mit meinem P19-2, blos anschliessen.
 
noxon schrieb:
Es kommt ja auch immer stark auf die Grafikkarte an. Einige wenige liefern ein gutes analoges Signal und die meisten leider nicht. Die standard ATi- und nVidia-Karten kann man in der Hinsicht vergessen.

Dann sieht das Bild natürlich auch nciht so gut aus. Dann ist DVI natürlich schon zu empfehlen.

Es ist aber genau umgekehrt. Die meisten Karten liefern ein ausreichend gutes Signal, so dass kein Unterschied zwischen VGA und DVI feststellbar ist. Getestet mit GF4ti, R9500Pro, GFFX5600 und GT6600. Alle diese Karten liefern ein gestochen scharfes Bild an meinem TFT ueber VGA.
 
ich kann mich auch nich beklagen über VGA aber den nächsten TFT versuche ich mal ein unterschiedd zusehen mit DVI. aber eigentlich will man doch nur eins oder? Was sehen! und da macht es den kohl nicht dick wenn man 10€ Sparrt weil man kein DVI dran hat.
 
Dass es einen Unterschied gibt, steht ausser Frage, da eine verlustfreie DA/AD-Wandlung unmöglich ist. Ob diese Unterschiede auch vom menschlichen Auge warnehmbar sind, hängt von den Wandlern in Graka und TFT ab.
Ich persönlich verwende trotzdem ausschließlich DVI, da es sowieso hirnrissig ist, ein digitales Signal zunächst nach analog und dann wieder nach digital zu Wandeln, wenns auch direkt ohne Wandlung geht.
 
kisser schrieb:
Es ist aber genau umgekehrt. Die meisten Karten liefern ein ausreichend gutes Signal
Das wäre mit neu. Dummerweise liefert dieser Artikel momentan einen Datenbankfehler, wenn ich mir die Ergebnisse ansehen möchte.

Vielleicht funktioniert das bald wieder. Jedenfalls habe ich shon einige Tests gelesen, die bestätigt haben, dass die gewöhnlichen "Gamer-Karten" eine recht miese Signalqualität liefern sollen.

Karten, wie die G550 von Matrox zum Beispiel sind da schon besser geeignet. Damit kann man dann aber nicht spielen.
 
Ja kommt natürlcih auch auf die Karte drauf an. Mag mich errinnern das ich Notebooks mit Onboard grafikkarte hatte GMA900 und Extreme 2 G die das bessere Bild lieferten über VGA als eine ATI 9000 zb.

Hochwertiger Ausgang?
Hochwertiger Eingang (Monitor, Projektor usw.) ?
Hochwertiges oder schlechtes VGA Kabel?
Hochwertiger Hardware Wandler?
Störungen in Umgenung?

Dies alles spielt bei D-Sub eine besonders wichtige rolle.

Ich benutze ein hochwertigs DVI Kabel mit Stärkerer Schirmung.

Zum Post oben, die hauptsache es gibt ein Bild von sich dem kann ich überhaupt nicht zustimmen. Wer nicht 100% scharf sieht kann auch kein Unterschied erkennen da hilft wohl nur eine Brille ;)
 
Zuletzt bearbeitet:
Wenn es die Möglichkeit gibt zwischen DVI oder Sub-D Anschluß zu wählen ist immer der DVI Anschluß zu bevorzugen da die DA-Wandlung und anschliessende AD-Wandlung in Verbindung mit den Leitungsverlusten immer in einer Minderung der Bildqualität endet.

Und genau aus diesen Gründen sieht das Bild an einem Monitor der über DVI Anschluß mit der Grafikkarte angeschlossen ist "schärfer" aus als eines das nur über den allseits bekannten VGA Anschluß angeschlossen ist.

Natürlich gibt es jetzt noch Unterschiede wie groß der Qualitätsunterschied tatsächlich ist. Diese Unterschiede hängen 1) von der Grafikkarte (DA Wandler Qualität) , 2) von dem verwendeten Kabel (Schirmung, Länge etc.) und 3) von dem TFT (AD Wandler Qualität) ab.

Ich behaupte jetzt einfach frech das ich den Unterschied zwischen DVI und Sub-D durch betrachten des Bildes erkenne. Vor allem wenn es sich bei dem Bild um keine Grafik sondern um ein Schriftstück handelt erkennt man das beim analogen Bild die Buchstaben leicht "verwaschen" aussehen.

LG,
--> surmas
 
Habe ein halbes Jahr über DVI berieben, dann zwangweise auf VGA umgestellt und ich kam erst gar nicht zurecht, da es mir total unscharf vorkam.
 
Surmas schrieb:
Wenn es die Möglichkeit gibt zwischen DVI oder Sub-D Anschluß zu wählen ist immer der DVI Anschluß zu bevorzugen da die DA-Wandlung und anschliessende AD-Wandlung in Verbindung mit den Leitungsverlusten immer in einer Minderung der Bildqualität endet.

Nein, tut es nicht. Das Signal ist exakt reproduzierbar (vorausgesetzt es ist ausreichend gut, wie das bislang bei allen von mir eingesetzten Karten der Fall war, s.o.).

Surmas schrieb:
Und genau aus diesen Gründen sieht das Bild an einem Monitor der über DVI Anschluß mit der Grafikkarte angeschlossen ist "schärfer" aus als eines das nur über den allseits bekannten VGA Anschluß angeschlossen ist.

Schaerfer als scharf geht nunmal nicht und das geht auch ueber den VGA.

Surmas schrieb:
Ich behaupte jetzt einfach frech das ich den Unterschied zwischen DVI und Sub-D durch betrachten des Bildes erkenne. Vor allem wenn es sich bei dem Bild um keine Grafik sondern um ein Schriftstück handelt erkennt man das beim analogen Bild die Buchstaben leicht "verwaschen" aussehen.

LG,
--> surmas

Nein, du wirst da keinen Unterschied erkennen oder zumindest keinen, der einen Rueckschluss auf die Art der Ansteuerung zulaesst.
 
Zurück
Oben