Unterschied Digital u. Analog

Ja na klar ist es besser in dem Fall. Was aber nur daran liegt, dass das eine noch schlechter ist als das andere.

Nein, aber mal im ernst. Ich nehme mal den Soundstorm, weil dieser halt geläufig ist und ich es auch schon damit probiert habe.
Im Idealfall eines hochwertigen Encoders, müsste man annehmen, dass eine Dice Encodierter Version eines Dolby Digital Stream einer DVD auch indentisch, oder sehr ähnlich wie diese klingt. Dem ist aber nicht so, man hört schon erhebliche Unterschiede im negativen, wenn man ein DVD Dolby Digital Signal per Decoder im Rechner decodiert und dann mit dem Dolby Dice wieder encodet, im Vergleich zum S/PDif Passthrough. Das Dice Signal ist da hörbar schlechter und dass obwohl der Soundstorm sogar noch i.d.R. die höhere Datenrate nutzt. 448kps sind bei DVDs im Dolby Digital nicht sehr verbreitet.

Der Soundstorm nutzt z.B. keine dynamische Verteilung der Datenrate auf die einzelnen Kanäle. Diese sind beim Soundstorm fix, das kostet vieles an Dynamik. Es gibt auch sonst einge Nachteile des DICE, die mir aber im Moment nicht einfallen.

Auch entstehen durch die Kompression Latenzen in der Soundausgabe.

Was mich daran stört ist, dass es eigentlich nicht nötig ist. Ich hoffe stark, dass mit einem einheitlich genormten Firewire Datentransfer dieses endlich der Vergangenheit angehört, die Anfänge sind ja gemacht.
Dann ist Dolby Digital wieder da wo es hingehört im Fernsehen und auf einer DVD.
 
NaTez schrieb:
Ja na klar ist es besser in dem Fall. Was aber nur daran liegt, dass das eine noch schlechter ist als das andere.

Und der analoge Ausgang des Soundstorm ist nicht der einzige der schlechter ist. Wenn dir diese Formulierung nun lieber ist und nur darauf gewartet hast, einigen wir uns eben so. ;) Mehr wollte ich garnicht aussagen.
Danke für die weiterführenden Infos...
 
nobody_ schrieb:
Und wenn der Digitalausgang schlecht ist, was dann?
Dann ist analog eindeutig vorzuziehen.

Wenn der Hersteller in der Lage ist, den Digitalausgang zu verpfuschen, dann taugt der analoge erst recht nicht.
Aber irgendwo stimmts, bei analog kommt wenigstens noch etwas an, bei digital könnte sich das dann ganz furchtbar anhören.

@NaTez:
wenn man alleine die Übertragungsstrecke, also Quelle->Kabel->Senke, betrachtet, dann ist digital einer analogen Übetragung deutlich überlegen.
Selbst ohne Fehlerkorrektur lässt sich ein digitales Signal rekonstruieren, bis eine 0 nicht mehr von einer 1 zu unterscheiden ist (oder, je nach Modulation, zwischen Dibits oder Qubits nicht mehr unterschieden werden kann).

Die digitale Kompression wird benutzt, um Bandbreite zu sparen. Es war halt eine Notlösung, weil es früher technisch - also in freier Wildbahn, im Labor schon - nicht möglich war, mehrere digitale Streams bei der Übertragung über mehrere Kabel synchron zu halten.
Das wird jetzt noch viele weitere Jahre herumgeschleppt.

Allerdings hat man auch bei analoger Übertragung Kompression. Theoretisch benötige ich, um eine analoges Signal verlustfrei zu übertragen, unendlich Bandbreite. Praktisch reicht es, für Audiosignale zwischen 20-20.000Hz die linearen Verzerrungen unter der Hörschwelle zu halten.
Und doch hat man Verluste: Rauschen, Einstreuungen. Das bedeutet alles einen Verlust an Information, die sich nicht wieder rekonstruieren lässt.

Eine verlustfreie (komprimierte) digitale Übertragung ist einer analogen ganz klar vorzuziehen, ist die Übertragung verlustbehaftet (DD oder DTS) kommt es auf die Qualität der Komprimierung und der Strecke an, welches besser ist. Ich persönlich würde immer digital benutzen, einfach weil ich ein praktischer Mensch bin und nur ein Kabel verlegen möchte, und weil ich den Unterschied eh nicht wirklich hören kann. Nur wenn ich darauf achte.

NaTez schrieb:
Im Idealfall eines hochwertigen Encoders, müsste man annehmen, dass eine Dice Encodierter Version eines Dolby Digital Stream einer DVD auch indentisch, oder sehr ähnlich wie diese klingt. Dem ist aber nicht so, man hört schon erhebliche Unterschiede im negativen, wenn man ein DVD Dolby Digital Signal per Decoder im Rechner decodiert und dann mit dem Dolby Dice wieder encodet, im Vergleich zum S/PDif Passthrough. Das Dice Signal ist da hörbar schlechter und dass obwohl der Soundstorm sogar noch i.d.R. die höhere Datenrate nutzt. 448kps sind bei DVDs im Dolby Digital nicht sehr verbreitet.

Dieser Versuchsaufbau ist untauglich. Das ginge nur, wenn Du das Originalsignal der DVD, unkomprimiert und ohne Verluste, zur Verfügung hättest. So wie Du das gemacht hast ist das wie bei einer Kassette, von der eine Kopie gemacht, diese Kopie wieder kopiert und dann die kopierte Kopie kopiert wurde.

Gruß
Morgoth
 
Morgoth schrieb:
Wenn der Hersteller in der Lage ist, den Digitalausgang zu verpfuschen, dann taugt der analoge erst recht nicht.


Verpfuschte Digitalausgaenge gibt es weit mehr als schlechte Analogausgaenge.
Viele Digitalausgaenge sind nicht mehr als ein Punkt, den man auf sein Featureliste setzen kann, verkauft sich ja dann besser.
Analogausgaenge dagegen sind nach wie vor ein MUSS und deshalb wird da mehr Wert auf Qualitaet gelegt.
 
Morgoth schrieb:
Dieser Versuchsaufbau ist untauglich. Das ginge nur, wenn Du das Originalsignal der DVD, unkomprimiert und ohne Verluste, zur Verfügung hättest. So wie Du das gemacht hast ist das wie bei einer Kassette, von der eine Kopie gemacht, diese Kopie wieder kopiert und dann die kopierte Kopie kopiert wurde.

Nein das stimmt nicht. Der Test ist sehr wohl tauglich.

Das decodieren ist durch Dolby genormt und liefert immer das gleiche Ergebnis. Diese ist die Ausgangsbasis für den Versuch.
Die Güte eines Encoders ist natürlich dann am höchsten, wenn das codierte Signal so weit wie möglich(bei AC3 u.ä. natürlich hörbar) dem Original entspricht.

Die Quell DVD ist damit nicht der Lieferant eines Vergleichs AC3 Signals, sondern einfach nur Lieferant einer Encoding Vorlage.
Die DVD als Vorlage hat halt den Vorteil eine klar separiere 5.1 Quelle zu sein und diese Vorlage lässt sich prächtig mit dem Encoding Ergebnis vergleichen.

Der Test ist übrigens beeindruckend, den der Unterschied ist frappierend und absolut hörbar.
 
Zuletzt bearbeitet:
Morgoth schrieb:
@NaTez:
wenn man alleine die Übertragungsstrecke, also Quelle->Kabel->Senke, betrachtet, dann ist digital einer analogen Übetragung deutlich überlegen.

Aus was besteht denn jetzt deine Uebertragungsstrecke? Fuer das reine Kabel gilt deine Aussage, aber nicht, wenn du Quelle und Senke noch mit einbeziehst.

Morgoth schrieb:
Selbst ohne Fehlerkorrektur lässt sich ein digitales Signal rekonstruieren, bis eine 0 nicht mehr von einer 1 zu unterscheiden ist (oder, je nach Modulation, zwischen Dibits oder Qubits nicht mehr unterschieden werden kann).

Und was ist mit Jitter? Wie willst du den eliminieren? Irgendwie habe ich das Gefuehl als gingest du davon aus, dass ein Digitalsignal immer perfekt im Timimg liegt. Dem ist aber leider nicht so.

Morgoth schrieb:
Allerdings hat man auch bei analoger Übertragung Kompression. Theoretisch benötige ich, um eine analoges Signal verlustfrei zu übertragen, unendlich Bandbreite. Praktisch reicht es, für Audiosignale zwischen 20-20.000Hz die linearen Verzerrungen unter der Hörschwelle zu halten.

Richtig. Ergaenzend:
Ich wuerde die nicht-linearen Verzerrungen ebenfalls unterhalb der Hoerschwelle ansetzen.

Morgoth schrieb:
Und doch hat man Verluste: Rauschen, Einstreuungen. Das bedeutet alles einen Verlust an Information, die sich nicht wieder rekonstruieren lässt.

Richtig.
Und bei Digital-Signalen hat man Quantisierungsrauschen, welches ebenfalls einen nicht rekonstruierbaren Verlust an Information bedeutet.



Gruss,
nobody_
 
nobody_ schrieb:
Verpfuschte Digitalausgaenge gibt es weit mehr als schlechte Analogausgaenge.

Wo? Wir reden da von Pfennigware, die von Chipherstellern angeboten wird.
Schlechte Analogausgänge sind, gerade bei Soundkarten, die Regel. Verzerrend (linear und nicht-linear), empfindlich gegen stark kapazitive Kabel, und was nicht alles.

Aus was besteht denn jetzt deine Uebertragungsstrecke? Fuer das reine Kabel gilt deine Aussage, aber nicht, wenn du Quelle und Senke noch mit einbeziehst.

In diesem Falle meinte ich mit Quelle und Senke Sende- und Empfangsbaustein. Ist aber auch insofern egal, als das mit einer rein digitalen Quelle (eine Soundkarte) einfach die Wandlung zum Analogsignal entfällt. Was der Empfänger (Receiver) daraus macht ist natürlich wieder etwas anderes.
Ich gebe zu, wenn die Quelle den Datenstrom erst noch verlustbehaftet komprimiert, dann gilt die Aussage nicht mehr.

Und was ist mit Jitter? Wie willst du den eliminieren? Irgendwie habe ich das Gefuehl als gingest du davon aus, dass ein Digitalsignal immer perfekt im Timimg liegt. Dem ist aber leider nicht so.

Das ist ein Problem der unidirektionalen Verbindung in Kombination mit der geforderten Echtzeitverarbeitung.
Inzwischen wird aber immer zwischengespeichert und neu getaktet, es kann sein dass ganz billige Teile (wie die Creative-Lautsprechersets) das nicht machen.
Dann stellt sich aber immer noch die Frage nach der Hörbarkeit.

Ich meine mich zu erinnern, dass der maximale Jitter, der empfangsseitig verkraftet werden muss, bei 200ps liegt, das ist eine Menge Holz.

Und bei Digital-Signalen hat man Quantisierungsrauschen, welches ebenfalls einen nicht rekonstruierbaren Verlust an Information bedeutet.

Ja, und es gibt clevere Algorithmen, die das digitale Rauschen bei jeder Frequenz unter die Hörschwelle drücken.
Leider nimmt dessen Einfluss zu, je leiser das Musiksignal ist. Deswegen wird ja auch auf Aufnahmeseite mit >24 Bit gearbeitet. Damit hat man einiges mehr an Reserve.

@NaTez:

Der Versuch ist vollkommen untauglich.
Das ist so, als ob du eine Lame-kodierte Datei dekodierst und dann wieder mit dem Fraunhofer drübergehst. Natürlich sind da dann Unterschiede zu hören, je größer desto unterschiedlicher die Encoder arbeiten.
Der einzig taugliche Weg, zwischen den beiden Encodern zu vergleichen, ist eine unkomprimierte Wave-Datei zu nehmen und die dann jeweils einmal mit Codec 1 und dann mit Codec 2 zu kodieren.
Darf ich fragen, mit was für einer Abhöreinrichtung Du die Unterschiede gehört hast? War es ein Blindtest oder hast du selber umgeschaltet?

Gruß
Morgoth
 
Morgoth schrieb:
Der einzig taugliche Weg, zwischen den beiden Encodern zu vergleichen, ist eine unkomprimierte Wave-Datei zu nehmen und die dann jeweils einmal mit Codec 1 und dann mit Codec 2 zu kodieren.
Darf ich fragen, mit was für einer Abhöreinrichtung Du die Unterschiede gehört hast? War es ein Blindtest oder hast du selber umgeschaltet?

Es geht ja gar nicht um einen Encoder Vergleich. Es geht darum, die Veränderungen am Original deutlich zu machen und darum, dass man dieses hören kann.

Blindtest war es nicht. ich habe ja schließlich umgeschaltet. Der Punkt ist auch nicht ein besser oder schlechter von verschiedensten Encodern festzustellen, sondern allein den Unterschied, zwischen den Ausgabearten mal zu erleben. Dass die DVD dabei auch eine AC3 Quelle ist, ist ein Aspekt, der zwar nicht wichtig aber sehr interessant ist.


Um mal über unterschiedliche Encoder zu spekulieren.

Wenn du Encoder vergleichen möchtest, dann ist es auch möglich eine vorhandene DTS Quelle der DVD zu nutzen, welche ja ungleich mehr Informationen vom Original enthält. Diese mit dem Soundstorm encodiert und ich gebe Dir Brief und Siegel, dass auch diese bei weiten nicht an die Qualität der Dolby Digital Vorlage der DVD kommt. Wohl gemerkt, dass der Soundstorm dabei die höhere Datenrate produziert.
Was dann auch sicherlich wieder zu hören ist. Wenn ich Gelgenheit dazu habe, werde ich es probieren.

Das ist zwar immer noch nicht das Original als Encoder Vorlage. Aber der Soundstorm wird die vom Studio benutzten Vorlagen überhaupt nicht verarbeiten können, insofern ist der Ansatz eh ein sehr theoretischer.
 
Zuletzt bearbeitet:
@ nobody_ und NaTez
Es steht außer Zweifel, dass ich mich technisch (noch) nicht so weit fortbilden konnte um auf diesem Niveau weiter mitzudiskutieren. Wenn sich meine Pläne realisieren lassen sollte sich das in nächster Zeit (nächsten Semestern) ändern. :rolleyes:
Jedoch unterstelle ich euch hier ganz klar, dass euch, eure umfassende Vorbildung bezüglich der technischen Hintergründe, etwas den Blick auf die Realität verwehrt. Ich kann euch nur herzlich dazu einladen selbst den Vergleich zu machen und diverse onboard Lösungen (auch in Laptops) auf den Prüfstand zu stellen. Nicht messtechnisch, sondern Praxisbezogen. Einfach mal gut bekannte MP3s oder auch Audio-CDs einlegen und den digitalen Ausgang gegen eine analoge Verbindung zu nem anständigen Receiver, antreten zu lassen. Ich hab das, wie schon erwähnt, schon hinter mir und nichts anderes als die gewonnenen Erfahrungswerte lassen mich zu dieser, hier von mir vertretenen Ansicht kommen. Ich bin überzeugt, dass wenn ihr nicht gerade die Theorie der Selfulfilling-Prophecies beweisen wollt, eure Meinung wird sich, wenn nicht ändern, zumindest relativieren.
Ich stelle auf keinen Fall eure technische Kompetenz in Frage! Aber wenn die Sachlage so ist wie ihr es beschreit, gibts wohl einen groben Unterschied zwischen Theorie und Praxis.
 
Zuletzt bearbeitet:
Natürlich ist es ein eher praxisferner Vergleich.
Hätte ich die Möglichkeit, ich würde es wie Morgoth halten und es digital verkabeln. Weil es eben praktischer ist.

Ich denke aber, dass grade der DVD Vergleich zeigt, dass es auch demnächst, wenn digitale Methoden in der Übertragung genutzt werden, diese nicht ein Allheilmittel sind. Es klingt ja auch nicht schlecht, was der Soundstorm da encodet. Allerdings klingt ein DD von der DVD i.d.R. doch noch merklich besser.

Nutzer eines Soundstorms haben halt den Vorteil, an dieser nächsten Evolution schon herein riechen zu können. Damit war nVidia/Microsoft Vorreiter.

Es wird auch auf Seite der Encoder erhebliche Unterschiede geben. Nun mögen die Dolby Labs noch ein wenig drüber wachen, was sich da mit dem Logo schmücken darf. (Sicherlich zum Nachteil mitunter recht hoher Lizenz Endgelder). Aber erst recht wird es mit Aufkommen von Verfahren wie MP3 Surround Ausreißer geben. Dabei ist MP3 ein enorm leistungsfähiger Standard, für Stereo auch deutlich leistungsfähiger als DD z.B. Der Ruf ist allerdings in Sachen Qualität ziemlich ruiniert.
 
Frage: Kanns nicht sein, dass die verminterte Qualität, schon vorher durch den Decodiervorgang zustande kommt oder zumindest dazu beiträgt?

Wäre schön wenn DolbyLabs ihre Lizenzen und Logos nicht nach finanziellen Zuwendungen sondern nach Qualität vergeben würde. Aber jedes neue Gerät zu testen wär wohl zu viel verlangt.

Noch ne Frage auch wenns nicht ganz dazupasst: Wie viele Pole haben eigentlich Mono, Stereo und der von CL (3xPCM) verwendete Klinkenstecker? 3, 5 und 7?
 
Das decodieren sollte zumindest immer zum selben Ergebnis führen.
Die Einhaltung des Algorithmus ist wohl eines der Vergabekriterien.

Es gibt sogar ein Papier von Dolby welches genauer die Unterschiede zwischen Dolby Digital und dem vereinfachten Dolby DICE Dolby Digital Live aufzeigt.

Ich muss mal nachsehen.
 
so hab heute mien logitech bekommen didital. :D muss ich schon sagen ordentlichen und kräftigen bass der nich verzert wird. :daumen:. kann ich nur empfeheln das system.

ein mangel hat es allerdings. die kabel für die hinteren speaker sind argh kurz bemeßen. aber sonst is es top. :)
 
hm ich bin grad am testen wie sich denn so die speaker schlagen. aber die fernbedinung is echt 1 a verabreitet. auch die boxen. bis jetz konnte ich nich wirklich was negatives mit bekommen. auser eben das die kabel für die speaker hinter extrem kurz sind. und ich neue kabel holen mus. :( die ferbedinung hat sehr viele einstell möglichkeiten. bass wie laut center dann wie laut der subwoofer. beim vreative hingegen muss man alles in der software steuern. hier geht das alles an der fernbedinung. SPITZE LOGITECH weiter so. :daumen:
 
Zurück
Oben