Welchen Anschluss zu VGA/DVI konvertieren?

sergio86

Cadet 4th Year
Registriert
März 2007
Beiträge
116
Hallo zusammen,

ich habe mal eine kleine Frage bzgl. der oben genannten Anschlüsse.

Folgendes Problem:

Ich habe ein neues Notebook, welches über einen HDMI, DisplayPort und mini DisplayPort als video outs verfügt.
Ich besitze allerding noch einen 24" Monitor welcher über eine Maximale Auflösung von 1920*1200 verfügt und nur via VGA oder DVI angeschlossen werden kann.

Nun würde ich gerne wissen, welchen der oben genannten Anschlüsse ich konvertieren (mit Adapter) soll um das best mögliche Ergebnis zu erzielen.

Bei HDMI bin ich mir nicht sicher da die max Auflösung größer 1080p ist.

Ich möchte mir derzeit auch keinen neuen Monitor kaufen.

Vielen Dank für euere Antworten.

MfG sergio
 
VGA keinesfalls da dadurch die Qualität darunter leidet. Zwischen DVI und HDMI wirst du keinerlei Unterschiede merken, bzw. sind keine vorhanden, da diese mit der gleichen Technik übertragen werden --> also auf jeden Fall mal DVI.

Bei der Frage, ob von HDMI, Displayport oder mini Displayport auf DVI kann ich dir leider nicht helfen, da müsste ich selbst Nachforschungen anstellen, würde aber spontan sagen, dass ist egal?!
 
Zuletzt bearbeitet:
VGA kannst du knicken, deine Outputs sind alle Digital, daher kommt nur ein "auf DVI" Adapter in frage.

Perse kann HDMI im übrigen über 1080p ansteuern... zumindest ab Version 1.3 und höher (alle Aktuellen Geräte haben 1.4(a))... Info

Da es aber zu Problemen führen KANN würde ich wohl, auch aufgrund der Stabilität auf den Displayport setzen... (der keline is so "fragil" wenn öfters mal an/ab gesteckt wird..)

Ergo: Displayport auf DVI Adapter...


Edit: VGA und Qualität? Blödsinn... Wenn der Monitor VGA unterstützt, dann gibt es keine Qualitätsverluste... die sache ist einfach das sein Lappy kein Analoges Signal ausgeben kann!

DVI u. HDMI UND Displayport verwenden alle die gleichen Monitor Signale... ist alles Digital...
 
PUNK2018 schrieb:
Edit: VGA und Qualität? Blödsinn... Wenn der Monitor VGA unterstützt, dann gibt es keine Qualitätsverluste....

Bei meinem vorigen Monitor machte es sehr wohl einen großen Unterschied, ob ein Rechner mittels DVI oder VGA angeschlossen war! Das mag von einigen Faktoren abhängig sein (Signal der GPU, Qualität des Kabels etc.), aber ich würde bei höheren Auflösungen immer auf einen digitalen Anschluss setzen.

In dem Fall mithin auf einen DisplayPort-DVI-Adapter. Insoweit besteht Konsens :D
 
@ Punk2018

VGA Qualität hat nix mit Anschlüssen zu tun sondern mit dem KABEL ...

Da dort Wellen übertragen werden kann es schnell passieren das diese nicht mehr die passende Flanke aufweisen und somit Sich Farben verschieben oder die Qualität anders beeinträchtigt wird .

Digitale Verbindungen ( DP / HDMI / DVI ) übertragen 0 und 1 und da tritt dann kein Fehler mehr auf also ergo kein Verlust .
 
Alles klar, vielen Dank für die schnellen antworten.
Werde dann wohl einen DVI auf DisplayPort nehmen :-)
 
Ich hab das gleiche Problem und es so gelöst:
HDMI-Kabel an Laptop und daran einen HDMI auf DVI-Adapter für in den Monitor (die liegen normalerweise Grafikkarten bei) und fertig.

Da mit das zu fummelig war, hab ich mir ein HDMI auf DVI-Kabel geholt (kostet so zw. 5 und 10 Euro, guck mal hier durch) und fertig.

Achja: natürlich geht damit auch 1920 x 1200.

Viel Erfolg,
Gray_

Nachtrag:
Bei mir funktioniert über das Adapterkabel sogar die Audiowiedergabe via HDMI, bis dahin wusste ich garnicht, dass mein Monitor das kann! ;)
 
Zuletzt bearbeitet:
VGA-Signal > 1280x1024 sieht meist recht matschig aus - egal wie gut das Kabel ist, für HD unbedingt Digital (Displayport-DVI wäre das beste) nehmen.
 
xxMuahdibxx schrieb:
Digitale Verbindungen ( DP / HDMI / DVI ) übertragen 0 und 1 und da tritt dann kein Fehler mehr auf also ergo kein Verlust .

So einfach ist es auch nicht..

Digitale Signale werden über ein High und ein Low übertragen...

I.d.R. wird ein Null signal (0V) ignoriert, sonnst würde ein Kabelbruch etc. zu einem "verwertbarem" Signal führen..
Also nehmen wir an wir haben ein Low Signal von 2V-2,5V und ein High von 3,5V-4V... dann kann ein zu schwaches Signal auch zu einem "Fehler" führen...
Also einfach zu sagen ein digitales Signal ist ohne Verlust zu übertragen ist so auch nich richtig ;-)

Das die Kabelqualität ausschlaggebend ist, ist mir auch klar, dennoch kann eben auch ein miserables DVI Kabel zu Signalproblemen führen.
 
Wo steht da was von 0 und 1 Volt ich hab was von Digitalen Signalen welche 0 und 1 Darstellen geredet .

Muss man für dich dazuschreiben .
 
Zurück
Oben