Unterschied LWL zu HDMI

Sven315

Cadet 4th Year
Registriert
Sep. 2011
Beiträge
96
Hallo,

ich habe derzeit meinen PC über ein HDMI Kabel zum Switch (als verstärker) und von da aus zum verstärker angeschlossen.
Diesen ausgang nutze ich auch um Musik zu hören.

Kann das auf dauer nachteile bringen weil es immer über HDMI läuft?
Und würde ein LWL Kabel sich beim Klang bemerkbar machen?
 
Nein, Audio wird sowohl über das Toslink als auch über das HDMI digital übertragen, auf den Klang hat dies keine Auswirkung.
 
Wie lang ist denn dein Kabel, dass du nen Verstärker brauchst?!
15-20m sind z.B. absolut kein Problem, selbst mit 08/15-Kabeln...
 
Hallo,
dass es keinen Unterschied gibt ist nicht ganz richtig. Das Signal wird zwar digital übertragen, bei LWL-Übetragungen muss aber zusätzlich noch eine Konvertierung von elektrischen in optische Signale und andersrum erfolgen. Je nach Güte dieser Wandler kann das Qualitätsnachteile geben.
Die Empfehlung ist deshalb HDMI oder SPDIF.
 
Eine Wandlung von optisch auf elektrisch ändert nichts an den übertragenen Daten, also kein Qualitätsverlust. Allerdings kann sich die Latenz erhöhen (ist aber sehr, sehr gering). Toslink hat aber den Nachteil, dass Dolby True HD und DTS HD nicht übertragen werden können, da dafür die Bandbreite nicht ausreicht.
 
wir gehen von einer Fehlerfreien Übertragung aus.
Daher ist es völlig egal womit das Signal Digital übertragen wird oder wie oft es hin und her gewandelt wird.
am Ende kommt immer das selbe an.

@#4
denk nochmal darüber nach ob das was du geschrieben hast Sinn ergibt ;)
 
digital ist NICHT immer 1:1
klingt erstmal blödsinnig, aber lest bitte zu ende...

Bei einem digitalen Signal schieben doch keine kleinen Männchen Nullen und Einsen durch das Kabel, die am Ende raus purzeln. Und selbst wenn, was wäre wenn einer etwas humpelt und seine Daten immer etwas später ankommen?
Scherz beiseite, es handelt sich um eine modulierte Spannung und das ist nunmal ein analoges Signal.
Wer sich das mal mit einem Oszilloskop angesehen hat, der weiß auch, dass das alles andere als ein sauberer Rechteck ist, das sieht fürchterlich aus!

Nun ist es ja aber so, dass man nur ein einziges Kabel hat, einen seriellen Datenstrom (der wie oben gesagt, alles andere als ideal ist). Und aus diesem Datenstrom muss auch der ursprüngliche Takt der Daten wieder "erahnt" werden. Je "sauberer" das Signal ist, desto besser und vor allem gleichmäßiger wird auch der Takt generiert.
Ältere Digital-Verstärker nutzen aber diesen Takt auch direkt für Ansteuerung der D/A Wandler. Man kann am analogen Ausgangssignal direkt den Einfluss der "Qualität des digitalen Eingangssignals" erkennen!

Eine optische S/PDIF Strecke ist aufgrund der beteiligten (billigst) Bauteile extrem schlecht für das Signal!

Soweit zur Theorie, die früher auch so in der Praxis Anwendung gefunden hat.
Heute sieht das etwas anders aus, weil die Geräte viel aufwendigere Digitaltechnik verbaut haben und diese Technik wesentlich billiger geworden ist. Da werden die digitalen Eingangsdaten mit dem "verseuchten Takt" (Jitter) erstmal in einen Puffer eingelesen, aus dem sie mit einem sehr sauberen und nur ganz vorsichtig an den Eingangstakt nachgeregeltem Takt ausgelesen werden und sich so der Jitter nicht über den D/A Wandler auf das Ausgangssignal überträgt.
 
schön und gut (hast ja recht) hat aber nix mit dem Thema zu tun.
denn dem TE geht es um die Soundqualität und nicht um die Signalqualität.
und die Soundqualität ist natürlich immer gleich.
 
Ist es eig. richtig, dass die LWL Schnittstelle am Mainboard immer die selbe ist von Microsoft und es deshalb keine Unterschiede von den eingesetzten wandlern gibt?

Ich hoffe ich habe mich richtig ausgedrückt.
 
Microsoft hat damit eigentlich nichts zu tun. Eher der Mainboardhersteller. Ist so wie der analoge Onboard Sound. Allerdings gibt es da bei den verschiedenen Chips (VIA, Realtek) Unterschiede.
Bei digital isses egal. Da kommts es eben drauf an wo der bessere Digital zu Analog Wander ist.
 
wie ich bereits geschrieben habe:
bei alten (Stereo) Verstärkern kann sich der Jitter noch "leicht" bis zu den Ausgängen "durch mogeln". Bei einem modernen AVR sollte das nicht mehr passieren. Bei ganz einfachen Geräten will ich das aber nicht ausschließen...
Es ist halt nur die Frage, wie sauber die PLL nachgeführt wird die den Takt für die D/A Wandler bereitstellt.
Man macht es diesen Stufen aber auf jeden Fall einfacher, wenn man ein möglichst sauberes Signal anliefert. Und das erhält man nunmal mit wirklich minimalen Aufwand mit einer sauber angepassten (75Ohm) Koax-Strippe für wenige Cent.
 
Hört doch auf den TE zu verwirren.
Hier werden Digital Daten Übertragen.
nichts anderes macht USB.
und da landet zumindest bei mir auf dem USB stick das, was auch gesendet wurde.

ob man also USB/SPDIF/HDMI/DVI/DP/Firewire/WLAN/LAN oder was auch immer nutzt, hinten kommt immer das selbe raus. ergo ist auch die Soundqualität immer Identisch.

@CTRL
Jitter hat damit überhaupt nichts zu tun.
hier werden Daten übertragen, die übertragung unterliegt einem Protokoll.
wäre ja schlimm, wenn anhand der Bit Laufzeit die Daten anders Dekodiert würden.
Das wäre ein recht seltsamer Decoder.
 
Zuletzt bearbeitet:
Du hast das eigentliche Problem nicht verstanden!!!

es geht NICHT um die Dekodierung der Daten! Die Daten sind immer dieselben. Aber der Takt, der aus dem seriellen Datenstrom generiert werden muss (S/PDIF hat nunmal keine separate Takt-Leitung!) taktet auch mehr oder weniger direkt den D/A Wandler!
 
wir Reden hier von einer Datenrate von 3mbits/s
das sind 330 nano sekunden.
lass das Signal um 20 Prozent wackeln, dann sind das 50 nano Sekunden
und das soll jemand hören?

na ich bestimmt nicht....
 
Zuletzt bearbeitet:
sorry, aber du bist immer noch auf der falschen Fährte!

es geht nicht um 50ns, sondern um die 20% und auch hier nicht um die absoluten 20% sondern darum, dass der Takt (in deinem Beispiel) um 20% schwanken würde (das ist Jitter).

Du glaubst also nicht, dass man hört wenn der Takt des D/A Wandlers statt präzise mit 44,1kHz zu arbeiten willkürlich zwischen 40 und 48kHz hin her pendelt?
 
wie gesagt, bei moderneren AVR mit HDMI, A/V Sync & Co. sollte der Ausgangstakt heute soweit vom Eingangstakt entkoppelt sein, dass das wirklich keinerlei (hörbaren und vermutlich sogar messbaren) Einfluss mehr haben sollte. Bei älteren Stereo-Amps mit Digital Eingang und vielleicht auch noch besonders einfachen/billigen AVR heute gibt es die aber definitiv.

Lass uns nicht (weiter) streiten, es geht mir in erster Linie darum, dass zwei "logisch" identische digitale Signale nicht unbedingt exakt dieselben analogen Ergebnisse liefern müssen, wie es viele Leute glauben und immer wieder behaupten.
Es geht um das "es kann" Unterschiede geben...
:schluck:
 
Der groesste Unterschied zwischen LWL und HDMI ist, dass ueber HDMI DTS-HD Master und TrueHD uebertragen werden kann, ueber SPDIF (also auch der LWL) nur DTS core und Dolby Digital. Ist wahrscheinlich bei Spielen und normaler Musik egal, wenn du allerdings BluRays oder eben Dateien mit den Lossless Formaten in bester Qualitaet abspielen willst, kommst du an HDMI nicht vorbei (und bei BluRays brauchst du HDMI eh fuer das Bild).
 
Zurück
Oben