Full HD: VGA vs HDMI

Zobek

Cadet 3rd Year
Registriert
Juli 2015
Beiträge
39
Ein Freund von mir hat sich ein Monitor für's Gaming geholt, welches aber nur eine VGA-Buchse hat.
Nun haben wir uns gewundert, ob die Bild-Qualität damit nicht sogar schlechter sein könnte, als mit beispielsweise HDMI. :freak:
Und wovon hängen die Qualitätsunterschiede von beidem ab?

Hat jemand von euch da eine Ahnung? :)
 
VGA hat bei hohen Auflösungen nix zu suchen und sieht auch entsprechend schlecht aus.
Worin die Unterschiede genau bestehen etc. wird lang und breit im Netz erklärt.

FHD Monitor welcher nur nen VGA Eingang hat? Sowas gibts ? ^^ Den billigsten im ganzen Netz genommen ?

Desweiteren sollte statt HDMI, DVI oder Displayport verwendet werden.


mfg
 
Zuletzt bearbeitet:
Welchen hat er denn?

Einfach irgendein Steinzeitmodell gekauft, Hauptsache billig?
 
Zuletzt bearbeitet:
alles über 1200-er geht noch, 1600 wird hart, aber fhd über vga, da brauchst extrem gute digital analog wandler und kabel … ist eher unwahrscheinlich dass das mit vga gut funzt.

was das für auswirkungen haben kann, einfach mal googlen.
 
Mein Monitor macht zum Glück auch mit VGA keine Probleme in Full HD. Verwende den mit VGA wenn ich den an meinen Laptop anschließe, der hat nur einen HDMI und VGA Ausgang.

Hab aber gehört, das dass Signal teilweise verschwimmen soll. Wie gesagt, bei mir sieht VGA genau so gut wie HDMI aus. Probier am besten, wenn alles mit VGA läuft hast Glück gehabt, nimm aber ein kurzes VGA Kabel.
 
Bei nem guten VGA-Kabel geht es eigentlich einigermaßen. Wenn ihr keinen Vergleich habt merkt ihr es vermutlich nichtmal. Wenn man einen Monitor mit beiden Anschlüssen hat und vergleicht wird man bei VGA im Gegensatz zu DVI eine leichte Unschärfe wahrnehmen. Man könnte es sich auch als analoge FXAA Lösung schönreden! :D (Bei Officebetrieb wird es deutlicher als bei Gaming oder Filmchen schauen.)

Ich persönlich habe meinen Wohnzimmer-PC mit VGA an den TV Angeschlossen weil die Glotze leider nicht genug HDMI Anschlüsse hat. Und ich kann damit leben.
 
https://www.computerbase.de/preisvergleich/aoc-e2270swn-a982087.html?hloc=at&hloc=de
https://www.computerbase.de/preisve...00ny-ls22d300ny-a1106285.html?hloc=at&hloc=de
https://www.computerbase.de/preisve...90lmd8301t02201c-a996982.html?hloc=at&hloc=de

Nur um einige zu nennen ...

Aber da hat man sicher am falschen Ende gespart.

Mracpad schrieb:
Bei nem guten VGA-Kabel geht es eigentlich einigermaßen.

ja aber ein gutes VGA Kabel kostet ein mehrfaches eines "normalen" DVI Kabels
 
Ich hab es bis jetzt einmal gehabt, dass FHD nicht über VGA ging. Das war eine AMD-APU und da wurden Bereiche des Bildes schlicht nicht angezeigt. FHD liegt weit über der Spezifikation von VGA, nichts desto trotz funktioniert es meistens. Aber das heißt nicht, dass es gut funktioniert. Das Bild wirkt unschärfer, schwammiger und vor allem bei hohen Bildwiederholraten, worauf es ja beim Gaming ankommt, reicht die Bandbreite einfach nicht mehr für eine ordentlich Darstellung aus. Der wesentliche Unterschied zwischen VGA und den anderen Anschlüssen ist, dass VGA analog ist und HDMI/DVI/DP sind digital. Unter FHD@60Hz sollte die Qualität aller digitalen Anschlüsse identisch sein, nichts desto trotz bevorzuge ich DVI bzw. DP.
 
MEINE Erfahrung mit Monitoren / Auflösung:
Bis max 1680 x 1050 VGA OK
Darüber: Digital -> HDMI, DVI, oder besser DisplayPort.

Grüße
 
@ Brandkanne naja Spezifiziert war so vieles nicht aber Auflösungen jenseits von FHD waren schon früher und auch mit VGA möglich.

http://stephan.win31.de/gfx_de.htm

Selbst im reinen DOS gehen Auflösungen von 1600x1200 halt auch mit VGA .

https://de.wikipedia.org/wiki/VESA_BIOS_Extension

Oder wie Matrox es halt auch genau angibt

http://www.matrox.com/graphics/de/products/graphics_cards/g_series/g450pci/

Analog, Hauptanzeige: 2048 x 1536
Analog, Sekundäranzeige: 1600 x 1200

oder die g200 mit 8 MB VRAM ...

http://www.anandtech.com/show/181/2

Auflösung bis 1920x1200 ... und das sogar mit noch vorhandenen Windows Treibern
http://www.matrox.com/graphics/de/support/drivers/previous/display2/#Windows_3.1x

Teilweise war ein Ramdac von 400 Mhz und mehr möglich bei Grafikkarten und der Limitierte dann die Auflösung und Bildwiederholfrequenz .

Weiterhin hat auch der VGA Anschluss nicht mit der VGA Auflösung zu tun ... die haben sich beide Weiterentwickelt ...
 
Zuletzt bearbeitet:
Man, man, mehr Antworten, als ich erwartet hätte. Okay, gut zu wissen. Anscheinend hatte er auch einen DVI-Anschluss.

@#.kFk Warum denn statt HDMI, DVI?

@slumpie So in etwa. 35€ auf ebay-Kleinanzeigen; "ein Schnäppchen", was er "nicht entgehen lassen wollte". Was das genau für einer ist, weiß ich nicht. :lol:
 
Weil HDMI Sachen wie Overscan mitbringt wo du erst noch im Treiber fummeln musst damit du ein Vollbild hast etc.

Außerdem erlauben DVI/DP wesentlich höhere Auflösungen und Bildwiederholraten. Bis FullHD kann man auch HDMI nehmen aber man umgeht mögliche Handshake Probleme etc. wenn mans nicht nutzt.

Mein Tipp : Monitor für 50€ (man findet immer nen Dummen;))bei Kleinanzeigen reinstellen und was vernünftiges kaufen.

mfg
 
im prinzip sind dvi und hdmi in den meisten anwendungsfällen gleich aber dmi macht im pc bereich oft probleme mit dem bildbereich (overscan) und/oder dem farbbereich (schwarzwert).
 
#.kFk schrieb:
Außerdem erlauben DVI/DP wesentlich höhere Auflösungen und Bildwiederholraten. Bis FullHD kann man auch HDMI nehmen aber man umgeht mögliche Handshake Probleme etc. wenn mans nicht nutzt.

Was mit HDMI 2.0 auch nicht mehr wahr ist ... denn für 4K am Monitor braucht es HDMI 2.0 oder DP 1.2 und höher.
 
Zurück
Oben