Aufgepasst - die HDMI Lüge!

Status
Für weitere Antworten geschlossen.
Registriert
Dez. 2008
Beiträge
5
Ich habe mir vor kurzem einen 13,1 Zoll Notebook von Sony (Z-Serie) gekauft. Ich wollte nun meinen Samsung 24 Zoll Syncmaster 245B anschließen. Es gab für mich 3 Möglichkeiten: Über VGA-Kabel betreiben, einen DVI/HDMI Adapter kaufen (der Samsung hat nur DVI-D) oder gleich einen neuen HDMI-fähigen Monitor.

Jeder ver****** Verkäufer VERSICHERTE mir, dass ich auf jeden Fall den Adapter brauche, weil mit VGA sei das aussichtslos, nur digital gehe mit guter Quali, anosonsten sehe es "verwaschen" aus. Jeder ver****** Bekannte mit Computerkenntnissen sah das genauso. Ich habe es trotzdem mal probiert...und war erstaunt. Die Bildquali über das analoge VGA-Kabel war einwandfrei...ein klares Bild...nix von "Verwaschen"...auch Officedokumente sehen deutlich, farbengetreu und klar aus. Wo soll denn nun der achsogroße Vorteil der digitalen Übertragung sein? Oder sind die sog. Computerexperten mit 200% Sehkraft ausgestattet?

Fazit: HDMI, DVI & Co. sind overhyped. Wer einen guten Rechner mit guter Grafikkarte kauft (also nicht top, aber auch nicht budget-level), kann darauf vertrauen, dass auch per VGA-Kabel ein ordentliches Arbeiten möglich ist, wenn man nicht vielleicht gerade prof. Fotos, Grafiken oder Filme bearbeitet oder einen Steinadler im Käfig hält, dem diverse Farbungereimtheiten schmerzhaft auffallen :).
 
Ähm HDMI ist für hochauflösendes Fernsehen gedacht also Signale bis was weis ich zu übertragen samt Audio in einem Kabel.
Hat Relativ wenig mit der Bildqualität zu tun. Das TV mit Digital besser aussieht (Ab 42 zoll auf jeden ) Kann ich Dir versichern. Der unterschied zwichen meinem Video Out ( Audio über Klinke 3,5) zu Scart und dem DVI (Audio geschleift)zu HDMI war Tatsächlich sichtbar
 
hdmi is halt digital, ganz einfach
während du bei miesen ausgängen/ewig langen kabeln bei vga halt leicht unsaubere bzw. doppelte kanten hast, bleiben dir diese bei digitaler uebertragung erspart
zudem is hdmi/dvi wichtig für dvi
 
schau es is doch so:

das DIGITAGLE signal aus der grafikkarte wird intern (im notebook) unter qualitätsverlust in ein ANALOGES signal umgewandelt. dann wird das ANALOGE signal mit dem kabel an den monitor übertragen, und da Flachbildschirme anders als Röhrenbildschirme wiederum DIGITAL sind, wird dann das ANALOGE signal wieder zurück in ein DIGITALES signal umgewandelt.

und dass sich da was verschlechtern muss, is ja klar. ob man das auch sieht, is wiederum eine andere sache.
 
Moin,

@TE:
deine Aussage bzw. deine Erfahrung ist mit Sicherheit völlig richtig und legitim. Deine Implikation, die du daraus herleitest, ist, um das mal festzuhalten, eine Pauschalisierung, die ihres Gleichen sucht, und schlichtweg falsch, da nicht allgemein gültig.
Insbesondere das Fazit, das du ziehst, ist sehr einseitig betrachtet.

Begründung: Du behauptest, die Qualität des Bildes bei Übertragung per VGA sei nur abhängig von der Grafikkarte, also der D/A Wandlung in der selbigen. Allerdings findet auch im Monitor nochmal eine A/D Wandlung des Signals statt. Wenn man nun den Übertragungsweg mal vernachlässigt, sind beide Wandlungen gleichermaßen dafür entscheidend, wie stark der Qualitätsverlust gegenüber einer rein digitalen Datenübertragung ist.

Nun hast du eine Kette von Geräten, bei der die D/A und A/D Wandlung anscheinend so gut funktioniert, dass du keinen qualitativen Verlust gegenüber rein digitaler Übertragung feststellen konntest.
So weit so gut. Jetzt lässt du dich aber dazu hinreißen die Aussage zu treffen, jeder der einen Rechner mit einer Grafikkarte, die einem gewissen Standard entspricht, kauft, könne darauf vertrauen, dass der Anschluss des Monitors per VGA dem per DVI in nichts nachstehe.

Und genau das ist falsch. Gerade die Grafikkarten, zumindest die der beiden großen Hersteller, bieten einen durchweg durchaus guten analogen Ausgang.
Die Monitore hingegen bieten doch sehr schwankende Qualität am analogen Eingang.
So bekomme ich an meinem Reserve-TFT von Asus schon nach kurzer Zeit Kopfschmerzen, weil kaum ein Pixel getroffen wird, wohingegen meine Displays von Eizo und Samsung ein hervorragendes Bild via analog liefern.

So falsch die Aussage der angesprochenen Verkäufer und Bekannten auch sein mag, so falsch ist auch deine. Die Wahrheit liegt wie immer irgendwo dazwischen ;-)
 
Zuletzt bearbeitet:
Au weia. Was für ein Sehproblem mus man haben, um einen VA-Ausgang eines Notebooks mit 1920*1200 auf einem externen Monitor für gut zu befinden.
Meine Einschätzung: Jeder andere außer dir würde der Meinung sein, das man von dem Bild Augenkrebs bekommt.
Und die Ideee von autoshot mit der mehrfachen Wandlung des HDMI-Signals im Rechner selbst ist gelinde gesagt ziemlich weit hergeholt.
 
und damit dann auch die idee vom felixumesse oder?

bzw. sag uns doch wies richtig geht wenn meins schon falsch is, anstatt einfach mal zu behaupten dass es falsch is hmm wie wär des ;) ?
 
wieso sollte das signla erst in ein analoges umgewandelt werden, wenn er den dvi-anschluss benutzt?
das würde nur so sein, wenn er einen adapter für den vga ausgang holt.

ich hab hier ne ps3 und nen hp w2207h stehen, beide hatte ich anfangs mit vga laufen. bei der ps3 konnt ich so schon ma keine hd-auflösung auswählen. beim tft ging es alles soweit. dann hab ich in 2 hdmi kabel begeistert und war überrascht, dass es doch noch ne besserung bringt. die ps3 sowie der bildschirm stellen es jetzt (viel) besser da. beim tft kann ich sogar jetzt die auflösung 1080i fahren, was ich aber aus gewissen gründen nicht tue -> schrift ist nicht mehr so gut lesbar.

aber das es vorher verwaschen war, konnt ich nun nicht sagen, aber das bild ist jetzt trotzdem klarer und nen ticken schärfer
 
haschenflaus schrieb:
Und die Ideee von autoshot mit der mehrfachen Wandlung des HDMI-Signals im Rechner selbst ist gelinde gesagt ziemlich weit hergeholt.

Aber er hat recht ! (Gilt auch fuer DVI -Signale)

@TOPIC: Ich denke auch, die Wahrheit liegt in der mitte

EDIT: Die Umwandlung bezieht sich auf die Verwendung eine VGA Kables.
 
Zuletzt bearbeitet:
Der Threadtitel ist nicht nur reißerisch, sondern irgendwie auch am Thema vorbei, man denkt zunächst in eine etwas andere Richtung!

Mit dem Hauptrechner gehe ich per DVI/HDMI, mit dem Notebook per HDMI an einen 42" LCD, nur HD ready.
Beide Geräte zu Anfangs auch mal per VGA.
Der Unterschied zugunsten der digitalen Anschlüsse ist erschreckend gut sichtbar und das in allen möglichen Bereichen...
 
vielleicht liegts wirklich zu nem großen teil an den verwendeten monitoren ...
meine frau nutzt den samsung 226bw via d-sub in nativer auflösung und "verwaschen" ist da nix (88gts320)
 
ich nutz auch nur den vga fuer meinen 22zoller und bin damit zufrieden, allerdings is 22zoll auch kein wirkliches maß.

hdmi ueberträgt neben vid auch audio und daher hat das schon auch noch was extra ;)

die sache bei dvi und vga versteh ich auch nich wirklich, wenn vga analog is und dvi digital, wieso geht dann ueberhaupt nen vga-dvi-adapter? is darin doch mehr technick als man denkt? also nen converter drinn?

also bildtechnisch hatte ich noch nie wirklich probleme mit vga, und augenkrebs selbst bei 1650x1080 is einfach quatsch
 
Wenn man halt nichts anderes kennt, außer den verwaschenen Bildern aus Röhrenzeiten, kann man halt auch keinen unterschied feststellen. Jeder der mal mit nem digitalen Signal auf nem vernünftigen PVA-Pannel gearbeitet hat, will das mit Sicherheit nicht mehr missen.

Aber selbst auf nem - um es mal mit deinen Worten zu sagen - ver****** TN-Panel sollte jeder unvoreingenommene Mensch den unterschied sehen insbesonderre bei 1920x1200. Das das überhaupt noch einigermaßen analog geht, ringt mir jedes mal den Respekt an jeden Analogdesigner ab.

Dein Problem wird wahrscheinlich das vieler anderer Menschen auch sein, nämlich das der Horizont, was die eigene Meinung angeht, ein Punkt ist und da ist nunmal nicht mehr viel Spielraum für andere Ansichten.
 
fi**en32 schrieb:
ich nutz auch nur den vga fuer meinen 22zoller und bin damit zufrieden, allerdings is 22zoll auch kein wirkliches maß.

hdmi ueberträgt neben vid auch audio und daher hat das schon auch noch was extra ;)

die sache bei dvi und vga versteh ich auch nich wirklich, wenn vga analog is und dvi digital, wieso geht dann ueberhaupt nen vga-dvi-adapter? is darin doch mehr technick als man denkt? also nen converter drinn?

also bildtechnisch hatte ich noch nie wirklich probleme mit vga, und augenkrebs selbst bei 1650x1080 is einfach quatsch

Bei diesen DVI/VGA-Adaptern wird der komplett vorher umgewandelte analoge Bildschirminhalt über spezielle Pins im Kabel mit übertragen. Schau dir mal einen DVI-Stecker an. Auf der Seite des Steckers ist eine kreuzförmige Anschlussleiste, vier Pins mit einem dickeren Mittelstück. Diese 4 Pins sind alleine für die analoge Ausgabe zuständig (DVI-I). Bei DVI-D Kabeln und Steckern fehlen diese 4 Pins, was eine analoge Übertragung unmöglich macht.

Noch ein großer Vorteil von DVI und HDMI - nur so kann der HDCP-Kopierschutz von hochauflösenden Videos zum Beispiel auf BluRay funktionieren. Mit VGA wirst du bei BluRay-Wiedergabe erst ein heruntergerechnetes Bild bekommen und mit einer für später geplanten Verschärfung der Regeln dann irgendwann gar kein Bild mehr.

Mach dir mal den Spaß und schließe eine Onboardgrafik wie zum Beispiel in Sonys weißen HTPC-"Ufos" mit VGA an einen beliebigen Bildschirm. DAS ist gruselig, alles über 1024x768 Pixeln ist ein Bildmatsch, schwarze Inhalte rauschen sichtlich, teilweise gibts sogar Flackern.
 
als das mit dem wandel von digital auf analog zurück zu digital ist in der tat so. wers nicht glaubt sollte sich einfach mal ein wenig einlesen.

Und wenn du wirklich einen krassen Unterschied zwischen nem Analogen und nem Digitalen Signal sehen willst brauchste natürlich auch den passenden Monitor / Fernseher. Auf nem Medion Pfui Gerät bringt z.b. das geilste Kabel nix.
 
Sehe ich schon so schlecht, oder hat der TE versäumt die verwendete Auflösung anzugeben? :rolleyes:
Wenn er die Standard-Auflösung seines Notebooks (vermutlich 1366x768@60Hz) auf einem 24 Zoll Monitor ausgegeben hat, ist es durchaus vorstellbar, dass das analoge Signal relativ wenig Verluste erfährt. Darüber hinaus wird wegen der unpassenden Auflösung das Bild immer etwas unscharf bzw. vermatscht sein - auch wenn man eine rein digitale Übertragung wählt.
 
Freu dich doch, dass du scheinbar ein Notebook mit nem sehr guten VGA-Ausgang erwischt hast.
Das ist aber gewiss nicht bei jedem Notebook so.

Ab 22" - 24" kann man jedenfalls in den meisten Fällen Unterschiede in Sachen Bildqualität erkennen.

Und wo ist eigentlich dein Problem? Ist es nur, weil du lächerlich 10 € zusätzlich für ein Kabel gebraucht hättest, obwohl das Notebook und der TFT ein vielfaches dessen gekostet haben? Und dass dir deine Augen das Geld scheinbar nicht wert sind?!
 
ähm merkts eigentlich jemand ?

1.Threadüberschrift total sinnlos. Hat mich jetzt 10 Minuten Zeit gekostet, ok hab
mich gut darüber amüsiert. Danke TE
2. Ist dieser Thread totaler Blödsinn.

:freaky:
 
Die Bildqualität hängt zum großen Teil von der Güte der Verwendeten Bauteile, vom Kabel und vom Widergabegerät und dessen Scalern ab.

@Rechtsverdreher
Wenn VGA bei dir ein gutes Bild zaubert ist das doch schon. Bedeutet aber noch lange nicht das das überall so ist. Darüberhinaus hast du den Sinn von HDMI wohl auchnicht ganz erfasst. Da gehts nämlich primär nicht um eine bessere Bildqualität sondern um eine Digitale Verbindung die in der Lage ist die HDCP Verschlüsselte Medien wiederzugeben und gleichzeitige auchnoch den Ton zu übertragen.

Closed. Allein schon wegen des Threadtitels.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben