Leistungsunterschied zwischen VGA und HDMI

Faizy

Commander
Registriert
Jan. 2011
Beiträge
2.842
Hallo,

ich hoffe das ich hier richtig bin, schließlich geht es ja um meine Grafikkarte.
Ich bekomme bald die "Gigabyte GTX 460 OC", welcher ein MiniHDMI-Adapter beiliegt zum anschließen eines HDMI-Kabels.

Gibt es leistungsmäßig Unterschiede zwischen VGA und HDMI(wo muss der Rechner mehr arbeiten)?
Kann man optisch einen Unterschied feststellen?

Der Rechner/Grafikkarte wird an einen 32 Zoll LCD-TV angeschlossen.


Vielen Dank
 
optisch gibt es einen Unterschied. HDMI ist viel besser. VGA ist nur Analog
 
HDMI(DVI) oder VGA ist leistungsmäßig egal.


Per VGA angeschlossen, kann es passieren, daß er Monitor über den Automatikmodus das Bild nicht optimal einstellt und Unschärfen auftreten.
Dann muß man per Hand im Menü rumfummeln.

Das abspielen originaler DVDs ist nur über HDMI mit HDCP Verschlüsselung möglich, mit VGA geht das nicht.
Glaub ich...

Außerdem geht bei geeigneten Karten auch das Audiosignal über das HDMI Kabel.
 
Zuletzt bearbeitet:
"Der Rechner" arbeitet bei allen Anschlüssen gleich.
Die Signalart unterscheidet sich bloß und da hta Kampfwurst schon die kürzeste, korrekte Antwort gegeben.

Solltest du also wirklich deinen 32"-LCD anschließen, dann nimm entweder den HDMI oder DVI Anschluß.
Denn diese geben ein digitales Bildsignal ab.
Der VGA-Anschluß gibt nur ein analoges Signal ab. Damit fütterst du einen CRT-Monitor. Der kann digital nämlich nicht verarbeiten.
 
Naja, optisch gibt es schon Unterschiede... VGA würde ich gar nicht mehr benutzen wenn möglich - der Standard wird auch bald verschwinden. Die Zeiten mit analogen Geräten ist vorbei - ist ja auch mittlerweile Quatsch ein digitales in ein analoges und dann wieder in ein digitales umzuwandeln.

Dem Rechner macht das nix aus, das wird von der Grafikkarte bzw. vom Monitor und deren AD/DA wandlern gemacht.
 
VGA hat liefert matschiges Bild und unterstützt kein HDCP. Nimm also HDMI, der rechner muss dafür nicht mehr leisten.
 
im Gegenteil , wenn die Richtige Graka vorhanden ist muss er sogar weniger leisten wenn das Audio Signal die Graka übernimmt.
 
Weiß nicht was hier alle immer haben von wegen beschissenes Bild mit VGA. Ich konnte bis jetzt keinen Unterschied feststellen. Warum auf dieser Welt digitale Signale überall als dermaßen überlegen angepriesen werden, verstehe ich auch (nicht nur in diesem Zusammenhang) nicht. Sicher ist es einfacher und verlustfreier zu übertragen, der Informationsgehalt wird trotzdem nie den eines analogen Signals erhalten...
 
Marius schrieb:
Das abspielen originaler DVDs ist nur über HDMI mit HDCP Verschlüsselung möglich, mit VGA geht das nicht.
Glaub ich...

Das Abspielen normaler DVD geht auch über VGA.Das was du meinst sind BluRays.Dafür ist minimum DVI(HDCP) oder HDMI notwendig.
 
Spitze, vielen Dank für die schnellen Antworten.
 
einblumentopf schrieb:
Weiß nicht was hier alle immer haben von wegen beschissenes Bild mit VGA. Ich konnte bis jetzt keinen Unterschied feststellen. Warum auf dieser Welt digitale Signale überall als dermaßen überlegen angepriesen werden, verstehe ich auch (nicht nur in diesem Zusammenhang) nicht. Sicher ist es einfacher und verlustfreier zu übertragen, der Informationsgehalt wird trotzdem nie den eines analogen Signals erhalten...


Bei Welcher auflösung?

bei FullHD ist sehr wohl ein unterschied festzustellen. Da ist selbst DVI sehr viel klarer.
 
einblumentopf schrieb:
Weiß nicht was hier alle immer haben von wegen beschissenes Bild mit VGA. Ich konnte bis jetzt keinen Unterschied feststellen. Warum auf dieser Welt digitale Signale überall als dermaßen überlegen angepriesen werden, verstehe ich auch (nicht nur in diesem Zusammenhang) nicht. Sicher ist es einfacher und verlustfreier zu übertragen, der Informationsgehalt wird trotzdem nie den eines analogen Signals erhalten...

Ich diskutiere jetzt mal nicht, wieso du keinen Unterschied zwischen VGA und HDMI sehen kannst. Ich hab eine andere Frage:

Welchen Informationsgehalt soll das VGA-Signal derselben Grafikkarte enthalten, der nicht auch im digitalen Signal via DVI oder HDMI steckt?
 
Ich habe einiges darueber gelesen warum DVI/HDMI usw. und nicht mehr VGA.

VGA hat angeblich nicht mehr die Bandbreite fuer die Zukunft.

1080p wird locker gehen, kein Thema, aber wenn du dann noch bedenkst das manche Leute mehrere Monitore angeschlossen haben mit FullHD Aufloesung wirds knapp.

Ganz davon abgesehen muss ich auch sagen, HDMI/DVI ist ein klareres, schaerferes Bild.
Gabs nicht auch noch Unterschiede in der Farbechtheit?

Ausserdem, hast du einen digitalen Monitor mit DVI/HDMI Eingang, kannst du ihn direkt per Kabel digital, ohne Qualitaetsverlust verbinden. Wohingegen die GraKa bei VGA das digitale Signal wieder analog umwandelt. Der Monitor wandelt dann das analoge Signal wieder in ein internes digitale um.
 
Zuletzt bearbeitet:
@SlipKn0T: Interpretiere ich deine Aussage richtig, dass HDMI ein besseres Bild als DVI liefert?
 
@einblumentopf
Der Unterschied ist für mich relativ deutlich, betreibe 2 Monitore gleichzeitig, einen mit DVI und den anderen über die D-Sub Schnittstelle und letzterer ist deutlich unschärfer. Wenn ich längere Zeit etwas lese strengt das auf dem D-Sub betriebenen mehr an. Habe auch schon die Kabel getauscht und den Effekt andersherum festgestellt -> monitorunabhängig.
 
Gerade auf großen Monitoren ist der unterschied deutlich zu spüren.
Wir haben neulich den 32" Fernseher von LG an den Rechner meiner Freundin über VGA anschließen müssen, weil A kein DVI-Eingang und B kein HDMI-Kabel/Adapter.

Der Monitor wurde erkannt und hat auch das richtige Bildformat in entsprechender Auflösung ausgegeben, aber das Bild war nicht das Best.

Kanten und Texturen haben in Spielen einen "Schatten" geworfen, sind also leicht versetzt und schwächer noch ein 2. oder gar 3. mal zu sehen gewesen. Das Empfand ich schon als sehr stören.

Wir haben das bloß gemacht um nen 1080p-Film via Rechner abzuspielen und im Film hat es nicht mehr so gestört. Aber VGA reicht für die Leistung moderner Anzeigegeräte nicht mehr aus.

Grüße
 
Ink schrieb:
Ausserdem, hast du einen digitalen Monitor mit DVI/HDMI Eingang, kannst du ihn direkt per Kabel digital, ohne Qualitaetsverlust verbinden. Wohingegen die GraKa bei VGA das digitale Signal wieder analog umwandelt. Der Monitor wandelt dann das analoge Signal wieder in ein internes digitale um.

Gabs da nicht auch noch ein Overscan-Problem, das eine Pixel-für-Pixel-Umsetzung des Signales unmöglich macht, womit auf TFTs das VGA-Signal automatisch matscht?
 
@sammybj:
Selbiges hier, "24", FullHD, null Unterschied :D
Tippe aber auch dass das stark aufs Kabel, Wiedergabegerät und Signalgeber ankommt.
Und da bei VGA prozentual viel mehr Altlasten existieren kann sowas gerne mal vorkommen, geht mir bei Monitoren in der Uni auch so.

Wobei es generell stimmt dass DVI einfach die bessere Schnittstelle ist, vor allem für die Zukunft, VGA macht leider viel zu viele Probleme, Flimmern, lange Kabel, etc... dafür hat es etwas was keine andere Schnittstelle hat... Kompabilität.
 
Zuletzt bearbeitet:
Zurück
Oben