Bild + Ton üer HDMI - DVI Kabel

soweit ich weis, kannst du nur mit gewissen ATI karten + den beiliegenden DVI - HDMI adapter den sound übertragen.
 
Das muss vom gerät unterstützt werden. Bei AMD ist es so das der ton mit duchgeschleift wird.
 
also laut geizhals hat die hd4830 einen integrierten 7.1 audiocontroller, also brauchst du nur den Adapter von ATI (sollte bei der karte beiliegen) und von dem aus, dann mit HDMI kalbel weiter.

du muss nur noch den sound im controllpanel (wenn ich mich nicht irre) auf hdmi legen.

mfg
 
darkd0g hat recht, das geht nur mit einem Speziellen DVI HDMI adapter, der meistens bei einer ÄGraka dabei liegt.
und dann ein ganz normales HDMI Kabel nehmen

(habe 2 tage damit veschwendet mein Ton mit so einem Kabel zum laufen zu bekommen;))

lg und Fo
der eater

da war darkd0g einfach schneller(mist)
 
DVI=HDMI. Alles andere ist vonm gerät abhängig.
 
surfix schrieb:
DVI=HDMI. Alles andere ist vonm gerät abhängig.
DVI ist nicht gleich HDMI

DVI überträgt nur Bilddaten, diese können dann mittels adapter auch über hdmi übertragen werden. da ATI aber einen soundcontroller integriert hat, hat haben sie den Adapter so angepasst, dass er den sound richtig auf das hdmi kabel überträgt.
 
DVI ist das aller selbe wie HDMI. Nur der stecker ist ein anderer. Sogar die pinbelegung ist die gleiche. Bei HDMI werden nur erweiterte protokolle gefahren.

Sowit ich weiß ist HDMI zwangsgekoppelt mit HDCP. Für jedes gerät mit HDMI muss der hersteller lizenzgebühren abführen.
 
http://www.computerkabel-kabel-stecker.de/HDMI-DVI.html

bitte lesen, hab ich nur schnell gegooglt, gibt sicher noch genauerere berichte
also dvi ist nicht hdmi (es kann nur mittels adapter das bild übertragen werden)

und ein gewöhnlicher adapter und auch dvi ausgang überträgt einfach keinen sound.

EDIT: so schnell gehts ... sogar selber link @nachposter :P
 
Zuletzt bearbeitet:
DVI ist genau so in der lage sound zu übertragen. Nur leider wissen das die wenigsten..

HDMI hat auch keine Audio "Kontakte".
Das Bild und der Ton werden in einem Transition Minimized Differential Signaling (TDMS) Kanal zusammegefuehrt.
Das bedeutet, Bild und Ton gehen ueber genau die gleichen "Kontakte".

Und das geht absolut problemlos auch mit DVI, WEIL ES VON SILICON IMAGE FUER DVI ENTWICKELT WURDE. HDMI kam erst spaeter und uebernahm das Verfahren von DVI.

Der Standard DVI Anschluss hat die selbe Pinanzahl wie HDMI, nur werden erweiterte Protokolle bei HDMI drüber gefahren.


Ich sehe eher einen "Vorteil" bei DVI anstatt HDMI ...

Soweit ich weiss, ist HDMI wohl aus Lizenzrechtlichen Gründen zwangsgekoppelt mit dem Kopierschutz HDCP.

Die eigentliche HDCP-Verschlüsselung wird jedoch nicht mit dem Film selbst gesendet, sondern nur ein sogenanntes Broadcast-Flag.

Sendet ein Sender dieses Broadcast-Flag, dann muss ein HDCP-konformer DVBs2-Sat-Receiver mit HDMI-Buchse den übertragenen Film "selbst verschlüsseln" und verschlüsselt über den HDMI-Ausgang ausgeben. Der HDCP-konforme Fernseher / das HDCP-konforme Display muss dann den verschlüsselten Videostrom erst wieder selbst entschlüsseln, um dann endlich den Film anzuzeigen.

Das ist definitiv ein "Nachteil" des ganzen HDCP-Krams, wenn ein Receiver HDCP konform ist und die HDCP-Verschlüsselung durch das Broadcast-Flag vom Sender aktiviert wird.

Das Ver- und Entschlüsseln kostet unnötig viel Rechenleistung (und zwar nicht zu knapp). Das Ganze ist obendrein wohl auch noch etwas störanfällig.

Und für Leute wie mich, die schon vor ca. 3 Jahren zwei HDTV-fähige Flachfernseher gekauft hatten (in HDTV-Vorfreude), sind nun erst recht Geräte ohne HDCP-Kram sozusagen Pflicht. Denn die ersten HDTV-fähigen Geräte (damals gab es noch kein HDready-Logo) können leider (oder zum Glück) kein HDCP. Dazu kam bei uns jetzt auch noch eine Dunstesse mit eingebautem LCD-TV für die Küche "ohne HDMI aber mit DVI", natürlich nicht HDready.

Deshalb warte ich ja auch so sehnsüchtig auf die HDTV-Dreams. Denn die haben"nur" einen DVI-Ausgang für das digitale Bild und müssen deshalb auch nicht HDCP-konform sein. Die Dreams ignorieren dann sozusagen einfach die Bitte des Bradcast-Flags, den Film nun zu verschlüsseln und geben den Videostrom "vollkommen unverschlüsselt" an alle möglichen Bildanzeigegeräte weiter. Das spart Rechenleistung und erspart einem auch gleich noch mögliche HDCP-Inkompatibilitäten.

Ich hoffe also inständig, dass Dream nicht doch noch die unselige HDMI-Schnittstelle (inklusive Zwangs-HDCP-Verschlüsselung) verwendet. Denn ich möchte mir kein HDCP-Korsett anlegen lassen ... Und offensichtlich ist das jetzt auch sicher ...

Mit dem ganzen Gemache um HDMI- und HDCP-Notwendigkeit wird der Ottonormal-User hier also ganz schön für dumm verkauft. Fast jeder glaubt, man benötigt unbedingt HDMI und HDCP für HDTV. Das ist vollkommener Quatsch. Nur leider blickt das wohl kaum jemand und alle kaufen sich jetzt freiwillig zwangs-verdongelte Verschlüsselungskisten und damit auch die dazugehörigen potentiellen Probleme. Wenn man darauf achtet, "keine" HDCP-konformen Geräte zu kaufen, dann fährt man damit eigentlich sogar besser. Dazu muss man aber schon genau aufpassen, was man kauft (z.B. Dream ...).

Vielleicht sind nicht alle Details ganz so technisch korrekt von mir wiedergegeben, aber ich denke im Groben und Ganzen trifft es das schon

Noch eine ergänzende Anmerkung:

Ein HDTV-Sender kann einem HDTV-Receiver, der HDCP konform ist, mittels Broadcast-Flag also mitteilen, dass er den Film erst zusätzlich zu verschlüsseln hat, wenn er den Film über HDMI an ein Anzeigegerät weiter gibt.

Je nachdem, was der Sender wünscht, kann über die analogen Ausgänge (z.B. Scart) dann parallel noch ein qualitätsgemindertes Bild ausgegeben werden oder alles analoge eben komplett gesperrt werden. Für solche schwachsinnigen "Schutzmassnahmen habe ich als mündiger und "ehrlicher" Endverbraucher absolut kein Verständnis !!!

Hat ein Receiver erst garkeinen HDCP-Chip drin, dann ignoriert er sozusagen den zusätzlichen Verschlüsselungsbefehl und gibt alles einfach komplett unverschlüsselt "auf allen Ausgängen" in der jeweils besten Qualität unzensiert weiter.

So sollte das sein, denn nur das ist verbraucherfreundlich und Ressourcen schonend ...

Pinout HDMI
310pxHDMIConnectorPinoutd32e9f87svgd32e9f87png.png


Pinout DVI
300pxDVIConnectorPinoutf8b30b24svgf8b30b24png.png


bei DVI fehlt folgendes:

- CEC

CEC-Vielfalt der Hersteller
Fast jeder Hersteller hat für die CEC-Steuerungsfunktionen über HDMI einen eigenen Namen. Nach den Regeln des HDMI-Standards müssen die Systeme aber auch über Herstellergrenzen hinweg funktionieren. Im Zweifelsfall sollte man aber eine Kombination aus Geräten verschiedener Marken ausprobieren, bevor die Systemsteuerung beim Kunden zu Hause versagt.

Die Pins 4,5,20,21 werden nicht verwendet.
 
Zuletzt bearbeitet:
@Surfix

Danke für die Erklärung. :) Jetzt bin ich auch ein bisschen schlauer.
 
Ja. das ganze ist schon nicht ganz einfach zu verstehen. Aber ich denke mal ich habs ganz gut erklärt. Auch wenns etwas OT war;)
 
danke für die erklärung mit der verschlüsselung und so.

aber um aufs thema zurück zukommen ...
warum steht dann überall, dass man den bestimmten ATI adapter braucht um den ton zu übertragen?
und wie "eater" oben schon selbst herausgefunden hat, dass es bei ihm nur mit diesem adapter ging.

es ist schon möglich mit dvi ton zu übertragen (sieht den adapter von ATI) aber ich glaub nicht, dass das mit jedem beliebigen adapter funtkioniert, siehe kommentar von "eater".
 
Ichn hatte mal eine hd4850. Da war ein DVI auf HDMI adapter dabei. Soweit ich weiß muss man den verwenden. Ansonsten hat man keinen ton.
 
ja genau um das gehts :D

danke

EDIT: also ATI adapter, von dem dann mit normalen HDMI kabel weiter.
 
okay da gibts nur ein klitze kleines Problem...bei mir war kein Adapter dabei...und ich hab ihn auch nicht verschlampt oder so da bin ich mir sicher weil ich alle sachen immer aufhebe (im originalkarton). Es war nur ein Adapter DVI _VGA dabei ...
 
@ surfix
ja, hast Dir echt Mühe gegeben! Danke dafür! So weit war ich in dem Thema noch nicht vorgedrungen. Das DVI auch diverse Vorteile hat, ist mir bekannt, jedoch wollte ich den Ton auch auf dem TV haben, weshalb ich den besagten Adapter von meiner 4850 verwende. Bei vielen Programmen stören mich die externen Lautsprecher tatsächlich.

Zu den Standards, die letzte Info die ich hatte, war die das es in den USA eine große Gruppe gibt, die den HDMI-Standard boykottieren, aus Gründen von Inkompatibilität usw. und das dort überlegt wird, es komplett abzuschaffen.

Das letzte Wort ist hier sicher noch nicht gesprochen was die Verschlüsselung betrifft. Wir werden sehen......

@ MaToBe
Dann kauf Dir doch einen neuen DVI-HDMI Adapter! Ist zwar nicht ganz billig, ist aber wohl die einfachste Lösung.
http://www.kabellager24.de/HDMI-Kab...HDMI-Adapter-DVI-D-St-auf-HDMI-A-Bu-v1-3.html
 
Hi leutz!

ich habe eine uralte ATI 9250 GraKa mit DVI Anschluß. Kann ich irgendwie mein LCD TV über HDMI anschlißen? Wie wird Ton übertragen? Ich wollte ein DVI-HDMI Kabel kaufen und jetzt bin ich nicht sicher ob so was funktionieren wird.
 
Soweit ich weiss hat ATI den Soundchip erst seit den Karten der 3er Serie integriert. Mit anderen Worten, nur über Karte geht nicht.

Wenn Du an Deiner Karte einen Sound Anschluss hast, kannst Du den mit dem Mainboard verbinden und dann via. DVI-HDMI Adapter MIT Sounddurchleitung und HDMI/HDMI Kabel auf den TV ausgeben.

Wie Du siehst, gibt es hier aber auch viele wenn und aber. Ich würde keine Körperteile drauf verwetten, dass es auch klappt! Wenn der DVI-Anschluss Deiner Karte den Ton nicht durchleitet ist schluss mit Lustig!

Vermutlich ist es einfacher und günstiger eine neue Graka zu kaufen:
Beispiel:
http://www.alternate.de/html/produc...2/?tn=HARDWARE&l1=Grafik&l2=Karten+AGP&l3=ATI

oder wenn es etwas besser sein darf mit Direktanschluss HDMI:
http://www.alternate.de/html/produc...2/?tn=HARDWARE&l1=Grafik&l2=Karten+AGP&l3=ATI
 
Zurück
Oben