DVI Audio -> HDMI

h00bi

Fleet Admiral
Registriert
Aug. 2006
Beiträge
23.818
Huhu zusammen,

ich hab da mal ne Verständnisfrage:
Bei manchen Nvidia G92 Grafikkarten kann ich ja das Audiosignal vom Onboard Sound druch die Grafikkarte durchschleifen und per Adapter dann auf HDMI ausgeben.

Die Graka hat aber "nur" 2x DVI.

DVI und HDMI haben ja bekanntlich dasselbe Videosignal. DVI ist aber ein reiner Videoanschluss und hat keine Pins die für Audio vorgesehen sind.
Über welche Pins läuft denn da der Ton?

In der Graka sind ja dank der Schleife beide Signale (Audio und Video) vorhanden. Im HDMI Kabel auch. Aber auf welchem Weg passieren die Audiosignale die DVI schnittstelle?
 
Also ich hab mir das ganze jetzt nochmal ganz genau angeschaut. Auf der Zotac Seite, keine wirkliche Info, außer dass ein DVI-HDMI Adapter der Grafikkarte beiliegt und der "Nicht-Audio" Variante eben nicht.

Vorstellen könnt ich mir, dass Zotac einen speziellen nicht standardisierten DVI Anschluss auf der Grafikkarte verbaut, der den Sound durchschleift auf den DVI Adapter, der wiederum beide Signal (Audio, Bild) an den HDMI weitergibt. Jetzt brauchste einen Monitor mit HDMI Anschluss, der Bild und Audio verarbeitet. (nein DVI bringt dich am Monitor nicht weiter).

Dagegen spricht, dass Zotac beide DVI Anschlüsse der Grafikkarte als DVI-I angibt, was ja eine Normung darstellt :( und gegen eine Audioübertragung spricht
 
HDMI audio and video output is a unique ZOTAC feature to its GeForce 8 series of graphics card.
Mmh ok, sowas hab ich mir vorgestellt.
Die Grafikkarte muss per S/PDIF an die Soundkarte. Die Grafikkarte schleift das ganze durch auf den DVI (wie die das machen keine Ahnung, dürfte kein Standard DVI sein) - interessieren würds mich schon ;)
Der Adapter wechselt auf HDMI und geht dann an den HDMI Anschluss des TFT, LCD der am Ende Bild und Ton ausgibt. Ich muss sagen, geniale Idee von von Zotac ;)

h00bi wenn du einen TFT mit HDMI hast, kein DVI, könnt das ganze wirklich funktionieren :)
 
h00bi schrieb:
DVI ist aber ein reiner Videoanschluss und hat keine Pins die für Audio vorgesehen sind.
Über welche Pins läuft denn da der Ton?

Nein das stimmt so nicht. Pins für Audio Übertragung gibt in dem Sinne nicht.

Der DVI Ausgang/ Eingang überträgt bzw. nimmt Daten entgegen. Genuaer gesagt digital kodierte Daten. In diesem Datenstrom kann sich alles befinden (Video, Audio, Bilder, Kochrezepte).

Die Frage ist nur, kann der Sender all diese Daten bereitstellen? Kann der Empfänger all diese Daten verabeiten? DVI ist nur eine art Daten-Autobahn.

Die Radeon der 3000er Serie haben einen Soundchip und können über DVI auch Sound übertragen, ohne das man den Sound von der Grafikkarte durchschleifen muss.

Ein Monitor kann das Signal über seinen DVI EIngang annehmen, und wenn der Monitor Boxen hat und das Signal korrekt verarbeitet wird, dann wird der Monitor mit einer reinen DVI Verbindung, den Sound ausgeben. (kein HDMI Adapter nötig)

Der Monitor kann das z.B: http://geizhals.at/deutschland/a342095.html


DVI war gedacht zur Videosignal Übertragung, so wurde es definiert. Da man beim PC audio eigentlich über die Soundkarte überträgt.


Stellt es euch so vor, über ein Netzwerkkabel erhält ihr einen Datenstrom von eurem Provider. Meint ihr der RJ45 Anschluss hat spezielle Sound Pins? Immerhin könnt ihr ja Musik aus dem Internet hören;)
 
Monitore können eigl. keine Sounddaten per DVI verarbeiten, da eigl. niemand über DVI Audiosignale schickt. Daher geht Zotac ja über HDMI, der ja natürlich für beides gedacht ist. Aber allein die Idee, Sound übern DVI und dann in HDMI zu machen find ich gut. Warum kommt da sonst keiner drauf? Das könnt man doch recht schnell standardisieren.

Mit dem Rest hast du allerdings Recht ;)
 
das erinnert mich an etwas.
Vor 3 Tagen hab ichs erlebt.

Eine 8800gt 1024mb, ein HP w2007h, und onboard sound des Mainboards wurde genutzt und an ne Hifi Anlage angeschlossen.

die GT ist per DVI-HDMI Adapter mit dem HP verbunden, also per HDMI Kabel

Nun war es wie folgt, immer wenn eine DX Anwendung gestartet wurde und auch bei Installationen von Games, hat der HP ein Audiosignal empfangen und ausgegeben.
Es war nicht der Systemsound sondern ein piepen oder möpen :D
das in unregelmäßigen Abständen immerwieder auftrat.

Das einzige was dieses Stoppte war in den Gamemenüs die Audiowiedergabe kurz deaktivieren und aktivieren, danach war das piepen/möpen weg.

Kann mir mal das einer erklären ?! ich checks nicht :freak:

Das muss doch was mit dem GT SOund zu tun haben
 
Verstehe ich richtig das du die gleiche Zotac hast?
Ansonsten wie willst du den Sound übern DVI Anschluss übertragen?
Bzw: Du möchtest wissen warum er diese Signale überhaupt wiedergibt, weil er ja normalerweise keinen Sound übern DVI beziehen kann?

Ich steh vielleicht auch gradn bissle aufm Schlauch^^
Falls du letzteres meinst, könnt ich mir Störsignale/Frequenzen vorstellen die per Lautsprecher ausgegeben wurden
 
cl55amg schrieb:
Nein das stimmt so nicht. Pins für Audio Übertragung gibt in dem Sinne nicht.

Der DVI Ausgang/ Eingang überträgt bzw. nimmt Daten entgegen. Genuaer gesagt digital kodierte Daten. In diesem Datenstrom kann sich alles befinden (Video, Audio, Bilder, Kochrezepte).

Hast recht, habe mir grade mal die HDMI und DVI Belegung angeschaut. Es gibt bei HDMI 3 Datenkanäle die aber keine Reservierungen für Audio oder Video haben. Bei DVI gibts 3 bzw. 6 Datenkanäle (Dual-Link / Single-Link)

Die AMP mixt also das Audiosignal direkt in die Datenströme.
 
Zuletzt bearbeitet:
Nein bei mir gehts um die Palit 8800gt mit dem Goldenen Kühler und der großen Backplatte.

Frage ist, wie man dieses Störsignal dauerhaft ausschaltet?
Ich kenn keine Möglichkeit irgendwo so etwas einzustellen, auch der HP hat keine im Menü vorhandenen Instanzen dafür
 
@h00bi

Jein,
schau mal hier http://www.iis.fraunhofer.de/bf/ec/osk/okin/hdmistand_gb.jsp
Der Transmitter wandelt alles in die Channel 0-2 - der Receiver wandelt alles wieder zurück. Es wird nicht speziell etwas "in den Datenstrom" gemixt, sondern "alles" wird zum Datenstrom

Info:
HDMI definiert vier High-Speed-Kanäle mit Pixeltakt, Video- und Audiodaten, sowie zwei Kanäle mit niedrigerer Datenrate für Steuersignale (DDC, Display Data Channel and CEC, Consumer Electronics Control). Die High-Speed-Kanäle bestehen aus einem TMDS-Taktkanal und drei TMDS-Datenkanälen (TMDS: Transition Minimized Differential Signaling). Der TMDS-Pixeltakt liegt im Bereich von 25 MHz bis 165 MHz. Bei 10 Bits pro Pixel führt das zu einer Datenrate von 250 Mbit/s bis 1,65 Gbit/s für jeden der drei TMDS-Datenkanäle.
Quelle: Fraunhofer

@Sir OC-a-lot
Evtl. ein schlecht abgeschirmter Adapter? Da man die LS beim HP ja nich "ausschalten", sondern nur Lautstärke 0 einstellen kann, hätte ich ja Störfrequenzen bisher bei mir auch hören müssen. Ich schau mal heute Abend bei mir nach, habe aber bisher nich einen einzigen Ton von denen vernehmen können.
 
Zuletzt bearbeitet:
@Drachton

Einige neue PC-Monitore mit Boxen, können den Sound über DVI verarbeiten, da habe ich beim oben benannten Samsung selbst getestet. Ein HDMI Adapter ist nicht nötig.
 
Das ist natürlich super, ... solange man ne Grafikkarte hat die Sound über DVI bringt. Und wie oben zitiert, ist Zotac beispielsweise der einzige Hersteller der das bei der G8 macht. Ich hab jetzt vorhin aber gelesen, dass die ersten Hersteller ihre Grafikkarten mit kleinen Soundchips ausstatten wollen um dem Problem zu entgehen

edit: Müll hab ich wegeditiert^^

@cl55amg (#17)
Logo ATI machts ja schon lange :) ganz außer acht gelassen
 
Zuletzt bearbeitet:
ATI macht das mit dem Soundchip seit der HD2xxx Serie.

Ich habe es mit einer ATI getestet. In den Notebooks wird der Sound auhc durchgeschleift bei den Nvidia mobile Karten, sofern das Notebook
einen HDMI ausgang besitzt.
Hat es nur einen DVI, dann wird nichts durchgeschleift. (Ist halt ne Frage der Spezifikation, bei DVI müssen sie es nicht)
 
Moin Sir-OC-a-lot,
ich hab gestern nochmal die LS hochgefahren und nach Störquellen gesucht, indem ich mein Handy angerufen habe und an Übergang DVI-DVI gehalten habe, bzw. oben an den Monitor. Die Lautsprecher haben nichts von sich gegeben...

Könnte vll. doch an deinem Adapter liegen der schlecht abgeschirmt ist :(
 
hui, danke dass du dir die Mühe gemacht hast :)
Ich werd mal nen anderen Adapter ausprobieren und mal schaun ob es vll doch dran liegt.

Der hat jetzt aber erstmal keine Probleme da er noch einen CRT sein eign nennt, was sich aber schnell ändern könnte weil er bald auf einen TFT umsteigen wird.
Ich werd ihm einen OHNE HDMI Eingang empfehlen :D :D
 
Würd ich eigl. nich mehr empfehlen. Über kurz ~2009, 2010 dürft DVI aufn absteigenden Ast kommen. Ob Bildschnittstelle oder HDMI selbst, ... der Einsatz steigt rasant. Auch wenns wie in deinem Falle grad ein Problem gibt :(
 
Zurück
Oben