HDMI-adapter vs DVI->HDMI Kabel

avey

Cadet 4th Year
Registriert
Jan. 2009
Beiträge
121
Hiho,

Ich habe vor einigen Tagen einen schönen LCD Fernseher bekommen und wollte den an meinen Rechner anschließen. Jetzt stell ich mir die Frage wie ich es am besten mache. Mit einem normalen HDMI Kabel und einem DVI auf HDMI Adapter oder einem DVI auf HDMI Kabel.

Bei der Grafikkarte handelt es sich um eine PowerColor Radeon HD 4850. Die benötigte Kabellänge beträgt 3.5m.

Außerdem kann ich einfach das günstigste Kabel von Amazon nehmen oder sollte ich lieber ein etwas teureres Markenkabel verwenden?
 
Ich würde ein normales DVI-Kabel und einen DVI-HDMI-Adapter verwenden. Markenkabel sind in der Regel nicht notwendig.
 
Bei 3.5m sollte auch ein billiges Kabel noch seinen Zweck erfüllen. Wenn du über HDMI auch Audio übertragen willst, so musst du bei ATI den Original DVI/HDMI Adapter verwenden - bei den restlichen Adaptern und DVI-HDMI-Kabel funktionieren nur sehr wenige chinesische Nachbauten des Originaladapters.
 
Ton geht nur wenn es im Angebot explizit erwähnt wird.

ich würde ein HDMI Kabel Kaufen und einen Entsprechenden Adapter.
dem Signal ist es egal, allerdings ist ein HDMI Kabel universeller.
 
Dann hänge ich mich doch gleich ein...

Erfüllt ein 5€ Amazon HDMI->DVI Kabel seinen Zweck, wenn man einen DVI-TFT an einen HDMI Anschluss hängen will?
 
Simpson474 schrieb:
Bei 3.5m sollte auch ein billiges Kabel noch seinen Zweck erfüllen. Wenn du über HDMI auch Audio übertragen willst, so musst du bei ATI den Original DVI/HDMI Adapter verwenden - bei den restlichen Adaptern und DVI-HDMI-Kabel funktionieren nur sehr wenige chinesische Nachbauten des Originaladapters.

Hat das nen bestimmten Grund? :freak:
Sollte doch normalerweise alles genormt sein, woran will die Graka also erkennen dass nicht der Originaladapter sondern irgendein x-beliebiger anderer dran hängt?

Wollte demnächst auch nen LCD Fernseher an meinen Rechner anschließen und zu diesem Zweck ein normales 7.5m HDMI-Kabel plus nen DVI->HDMI Adapter kaufen. Der Originaladapter meiner Radeon liegt 500km von hier weg in einer Schachtel auf dem Dachboden meiner Eltern, von daher wärs sehr ungünstig wenns wirklich nur mit dem gehen würde...
 
in den Original Adaptern ist Elektronik verbaut die der Grafikkarte ein bestimmtes Bitmuster schicken müssen.
dadurch wird bei ATI die Soundausgabe über DVI Aktiviert.
das wird gemacht um die DVI Spec einhalten zu können.

Normale Adapter haben diese Elektronik natürlich nicht Integriert--> kein Sound
warum das ATI nicht in den Treiber eingebaut hat, ist mir allerdings schleierhaft.
 
@redsector:

Hier geht es ja um die AUDIO-Wiedergabe über DVI. Beim Bild ist natürlich alles genormt, aber beim Ton hier eben nicht, da DVI nicht dafür gedacht ist auch Ton zu übertragen. (Soweit ich weiß)
 
Achso... ich dachte immer DVI-I (im Gegensatz zu DVI-D und DVI-A) wäre auch für Audiodaten spezifiziert. Muss ich wohl was falsch verstanden haben.

Wenn das ausserhalb der Norm läuft, ist natürlich klar dass der Hersteller da nen speziellen Adapter beilegen muss.

Danke für die Klarstellung, dann kann ich mir ja den Kauf eines Adapters sparen... und meinen Fernseher erst in ein paar Wochen anschließen wenn ich den originalen hier habe :(
 
Klar ist es nicht - ATI hätte ganz einfach eine Option im Catalyst Control Center machen können um die Funktion ein- bzw. auszuschalten. Stattdessen wird ein Adapter konstruiert, welcher von der Grafikkarte identifiziert werden kann (ein normaler Adapter ist transparent für die Grafikkarte) und die Umschaltung automatisch durchgeführt - der Sinn dahinter erschließt sich mir bis heute nicht.
 
Zurück
Oben