News Neuer Codec und Sharing: Neuer Bluetooth-Audio-Stan­dard bringt viele Vorteile

Offensichtlich klappt es nicht, dass ihr eure Argumente mit Vergleichen verdeutlicht, stattdessen seid ihr auf einer weiteren Metaebene unterwegs ;)

Es gibt hier jedoch sehr konkrete Informationen und Fragen (z.B. in meinem Beitrag).
@MaverickM - hast du dazu eine passende Antwort?

Da diese Diskussion aber mittlerweile sehr off topic ist, können wir auch einfach stoppen :schluck:
Ergänzung ()

Offensichtlich klappt es nicht, dass ihr eure Argumente mit Vergleichen verdeutlicht, stattdessen seid ihr auf einer weiteren Metaebene unterwegs ;)

Es gibt hier jedoch sehr konkrete Informationen und Fragen (z.B. in meinem Beitrag).
@MaverickM - hast du dazu eine passende Antwort?

Da diese Diskussion aber mittlerweile sehr off topic ist, können wir auch einfach stoppen :schluck:
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Mal ganz davon abgesehen, dass man deinen Beitrag durchaus so interpretieren kann: Es ist schlichweg absolut nicht vergleichbar, da Äpfel versus Birnen.

Bluetooth ist teurer und hat einen Qualitätsverlust gegenüber einem Kabelgebundenen Kopfhörer. Solange es keine Verlustfreie Übertragung gibt, bleibt das immer nur eine Notlösung.

Wechhe schrieb:
Und meine Ohren hören keinen Unterschied zwischen LDAC und SBC mit FLAC Dateien

Wenn Du sagst, Du hörst bei LDAC zu einer komplett verlustfreien Kette keinen Unterschied mehr, kann man das durchaus so stehen lassen. Aber SBC klingt einfach nur grausam, keine Ahnung, wie du da keinen Unterschied hören willst. Da klingt ein Dosen-Telefon, wie wir sie als Kinder gebastelt haben, ja besser.
 
Zuletzt bearbeitet:
Wenn du das so empfindest mit SBC, dann kann und will ich da nicht gegen anreden. Deine Ohren, dein Gehirn, deine Ausrüstung.

Wobei ich den Vergleich mit dem Dosentelefon als übertrieben finde. Denn aus rein mathematischer Sicht werden selbst über SBC genug Daten übertragen, sodass der Unterschied nur in bestimmten Szenarien vorhanden sein kann und wenn der Unterschied vorhanden ist, dann behaupte ich, dass der nur mit entsprechender Ausrüstung (die 99,9% der Bevölkerung nicht hat) und nur mit audiphilen Ohren wahrnehmbar ist.
Ich will dir aber nicht nehmen, dass du vielleicht zu der kleinen Gruppe aus Auserwählten gehörst.
Am Ende bist du der Leidtragende, weil du offensichtlich nur mit einer 2000€ Ausrüstung unterwegs Musik hören kannst, ohne dass die wie ein Dosentelefon klingt.

Und eine "komplett verlustfreie" Kette hast du nie, wenn die Information digital gespeichert ist und am Ende analog (Lautsprecher, Kopfhörer) ausgegeben werden.
Du hast mindestens einen D/A Wandler sowie die analoge Übertragung (Klinkenkabel, Lautsprecherkabel) sowie weitere elektronische Komponenten (z.B. Filter, Kondensatoren, ...).

Mit unterschiedlichen Bauteilen hast du also (leicht) unterschiedliche Ergebnisse und damit ebenfalls ein Verlust/Veränderung an Informationen.

Aber gut - die Industrie muss ja auch von irgendwas leben.
Wir müssen halt nur aufpassen, dass es nicht in diese Kategorie geht: Sehr unterhaltsame Produkte und Tests
 
Der Verlust über die Analoge Übertragung ist wirklich vernachlässigbar, sofern die Kabelschnitte ausreichend dimensioniert sind, und die Qualität der Analogsektion im Wandler gut genug ist.

Und SBC klingt halt wirklich Blechig. Buchstäblich. Das eignet sich maximal für Telefonate, aber doch nicht für Musikübertragung.
 
MaverickM schrieb:
Genau, mein Kopfhörer am Smartphone braucht ja ein 50m Kabel, weil ich ja nicht das Smartphone mitnehmen kann...[...]

Du weißt, was eine LP ist?
 
MaverickM schrieb:
Der Verlust über die Analoge Übertragung ist wirklich vernachlässigbar, sofern die Kabelschnitte ausreichend dimensioniert sind, und die Qualität der Analogsektion im Wandler gut genug ist.

Spannend, dass du das als vernachlässigbar einschätzt, aber unbedingt Lossless haben willst. Deshalb ja schon mehrfach die Frage: Was für Geräte nutzt du?? Also einmal deine gut-klingenden Analog Geräte und dann die Vergleichsgeräte, die mit Bluetooth/SBC "blechern wie ein Dosentelefon" klingen.
Solange du das nicht mitteilst, kann ich das alles nur alles trollen interpretieren.

MaverickM schrieb:
Und SBC klingt halt wirklich Blechig. Buchstäblich. Das eignet sich maximal für Telefonate, aber doch nicht für Musikübertragung.

Eine mit AAC 320 kBit/s komprimierte Musikdatei klingt doch nicht blechern! Und diese kann verlustfrei mit SBC übertragen werden.
Edit:
Diese Aussage ist quatsch - siehe Beitrag unten...
 
Zuletzt bearbeitet:
Wieso?
Wird die bei SBC dann nicht noch mal neu enkodiert?
Wie sollte das verlustfrei sein?
Selbst wenn man AAC nutzt, wird der Audiostream noch mal neu komprimiert, oder etwa nicht?

MaverickM schrieb:
Bluetooth ist teurer und hat einen Qualitätsverlust gegenüber einem Kabelgebundenen Kopfhörer.
Das stimmt sicher.
Liegt aber am wenigsten an den verwendeten Codecs sondern eher am Design allgemein.

Gut ... den Beyerdynamic habe ich nun noch nicht gehört.
Aber Sony, Bose und diverse andere ... die klingen halt nicht gut, weil es einfach keine guten Kopfhörer sind.
Wenn man da das Signal über ne Klinke reinschickt (geht bei manchen ja), klingen die immer noch nicht gut.
 
  • Gefällt mir
Reaktionen: Wechhe
USB-Kabeljau schrieb:
Wieso?
Wird die bei SBC dann nicht noch mal neu enkodiert?
Wie sollte das verlustfrei sein?
Selbst wenn man AAC nutzt, wird der Audiostream noch mal neu komprimiert, oder etwa nicht?

Richtig. Denkfehler meinerseits.
Der zuvor verwendete Codec der Musikdatei wird natürlich decodiert und dann mit dem Bluetooth Codec (SBC, aptX, LDAC, ...) neu codiert und übertragen.

Trotz der ähnlichen Werte sagt man aptX eine bessere Qualität zu, weil die Komprimierungsleistung besser ist (also mehr Daten bei gleicher Bitrate) - ähnlich wie AAC besser als MP3 ist.

--> Mein Fazit bisher ist: SBC klingt für meine Ohren nur schlechter, wenn ich drauf achte und bei bestimmten Musiktiteln (kann aber auch Einbildung sein) - und das sind Nuancen.
Auf keinen Fall klingt es "blechern" oder so schlecht, dass ich auf den Komfort von kabellosen Kopfhörern verzichten würde. Ich mein, wir reden hier von einem Anwendungsfall, bei dem ich mobil unterwegs bin. Also herum laufe, einkaufen bin, in der Bahn/Flugzeug sitze. Da reduzieren ganz andere Faktoren die Soundqualität.

Wenn ich audiphil unterwegs bin, dann mache ich das zuhause im Sessel mit einem Glas Wein/Champagner/Wiskey, habe mein Monokel drin und einen Zylinder auf.
Und dann kann ich natürlich meine Hi-Fi Kopfhörer am Kopfhörer Verstärker laufen lassen mit Kabel.
🎩
🧐
 
Zuletzt bearbeitet:
Wechhe schrieb:
Aber gut - die Industrie muss ja auch von irgendwas leben.
Wir müssen halt nur aufpassen, dass es nicht in diese Kategorie geht: Sehr unterhaltsame Produkte und Tests
Wechhe schrieb:
Wenn ich audiphil unterwegs bin, dann mache ich das zuhause im Sessel mit einem Glas Wein/Champagner/Wiskey, habe mein Monokel drin und einen Zylinder auf.
Und dann kann ich natürlich meine Hi-Fi Kopfhörer am Kopfhörer Verstärker laufen lassen mit Kabel.
🎩
🧐

Ich finde es etwas unfair von dir Losless Audio mit HiFi Esoterik zu vergleichen. Es mag sein das ein Großteil der Bevölkerung MP3 ausreicht (siehe Spotify), es gibt aber durchaus auch Leute die gerne mehr wollen. Sonst gäbe es kein FLAC. Daher ist es doch berechtigt das diese Zielgruppe auch mobil über Bluetooth Losless Audio hören will. Nur weil man selber keinen unterschied hört heißt das noch lange nicht das es andere nicht tun.
 
Ich stimme dir zu.

Mir ging es auch nicht darum, Menschen mit hohen Ansprüchen zu diffamieren oder Produkte für diese Zielgruppe als komplett sinnlos darzustellen. Es kommt halt immer drauf an, wie es genutzt wird und welchen Unterschied es tatsächlich macht.
Ja, SBC als Standard in BT ist zu wenig. Ich würde mir auch wünschen, wenn ein neuer Bluetooth Standard einen effizienteren Codec unterstützt, damit Musik mit einer "audiphilen" Qualität übertragen werden kann.

Ich bin jedoch der Meinung, dass Lossless für Bluetooth eine sinnfreie Sache für 99,9 % der Nutzer ist, weil:

1) Es gute Codecs gibt, die den Ton so komprimieren, dass ein Mensch den Unterschied nicht raushören kann, ohne dass >1000 kBit/s Daten übertragen werden müssen.

2) Wir alle einen Nutzen davon haben, wenn Speicherplatz und Bandbreite eingespart wird. Unter der Annahme, dass 1) stimmt: Warum sollten wir beim Streamen, Speichern usw. mehr als doppelt / dreimal soviel Daten abspeichern? Das erhöht die Preise für Streaming Anbieter, nimmt nutzbare Bandbreite und das ohne Mehrwert.

Um den Kreis mal zu schließen und zum Ursprungsthema zurückzukommen:

Mein ursprünglicher Hinweis galt dem Wunsch von @MaverickM, der sich für einen neuen BT Standard eine Lossless Integration wünscht. Und ich meine: Wozu Lossless, wenn es mit bestimmten Codecs bei Komprimierten Sound in der realen Welt für (meine Behauptung) 99,9% der Anwender keinen Unterschied macht? Das ist ja nicht die Definition von Standard.
Der Rest ist dann auf den vorherigen Seiten zu lesen.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Wechhe schrieb:
2) Wir alle einen Nutzen davon haben, wenn Speicherplatz und Bandbreite eingespart wird. Unter der Annahme, dass 1) stimmt: Warum sollten wir beim Streamen, Speichern usw. mehr als doppelt / dreimal soviel Daten abspeichern? Das erhöht die Preise für Streaming Anbieter, nimmt nutzbare Bandbreite und das ohne Mehrwert.

Hier liegt übrigens ein eklatanter Denkfehler vor. Bereits komprimiertes Quellmaterial wird durch die Bluetooth-Übertragung nochmal weiter komprimiert. Wird also noch schlechter, als sie ohnehin schon ist. Alleine deswegen wäre ein Lossless Codec für die Übertragung schon wichtig.

Und diese Mär vom Speicherplatz sparen... Im Jahr 2020. Speicher war noch nie so günstig, und wird immer noch günstiger (Schwankungen mal ausgenommen). Und obendrein nutzen doch viele eh nur noch Streaming-Dienste als Quelle. (Die dann wiederum teils stark komprimiert sind, siehe oben.)
 
MaverickM schrieb:
Hier liegt übrigens ein eklatanter Denkfehler vor. Bereits komprimiertes Quellmaterial wird durch die Bluetooth-Übertragung nochmal weiter komprimiert. Wird also noch schlechter, als sie ohnehin schon ist. Alleine deswegen wäre ein Lossless Codec für die Übertragung schon wichtig.

Ist das wirklich so?
Beispiel: Ich habe eine Musikdatei mit AAC 320 kBit/s codiert und möchte diese mit Bluetooth übertragen. Meines Wissens wird diese dann erst decodiert und dann mit dem verwendeten Bluetooth Codec neu codiert - z.B. SBC (345 kBit/s).
Und da der SBC Codec schlechter ist als AAC, sinkt die Qualität trotz der höheren Bitrate.

Wenn das nicht so wäre, dann würde ich eine AAC 320 kBit/s ja ohne Einschränkungen übertragen können. Und da der AAC Codec ziemlich gut ist (Achtung, jetzt kommt meine persönliche Meinung), würde der SBC Codec völlig ausreichen für eine gute Soundqualität.
 
Wechhe schrieb:
Beispiel: Ich habe eine Musikdatei mit AAC 320 kBit/s codiert und möchte diese mit Bluetooth übertragen. Meines Wissens wird diese dann erst decodiert und dann mit dem verwendeten Bluetooth Codec neu codiert - z.B. SBC (345 kBit/s).
Und da der SBC Codec schlechter ist als AAC, sinkt die Qualität trotz der höheren Bitrate.

Genau so ist es. Ich habe nichts anderes geschrieben. ;)

Nahezu sämtliche mir bekannten Audio-Codecs arbeiten mit der Logik, dass bspw. hohe Frequenzen beschnitten werden, unter der Annahme, dass diese nur von wenigen Menschen gehört werden können. Simultan (aber weniger stark), geht man auch beim untersten Frequenzspektrum vor, also dem Tiefbass. Beim decodieren bleiben diese Daten bei einem Verlustbehafteten Codec für immer verloren. Schickt man sie nun via BT mit einem weiteren Verlustbehafteten Codec an den Kopfhörer, werden nochmals die Frequenzen beschnitten, ganz egal wie das Quellmaterial vorher aussah.

Daher ist das Rekodieren von Verlustbehafteten Codecs auch kompletter Unsinn. Und hier im konkreten Fall klingt eine bereits stark komprimierte Audio-Datei über Bluetooth nochmals schlechter als über einen Kabelkopfhörer, obwohl vielleicht der Bluetooth-Codec bei einer unkomprimierten Quelle durchaus brauchbare Ergebnisse erzielen würde. Das ist ja die Krux an der ganzen Sache, daher wäre eine Verlustfreie Datenübertragung an den Kopfhörer so wichtig.

Ein sehr gutes Beispiel zu dem Problem ist folgendes Video. Das geht primär auf den YouTube Codec ein, legt aber das prinzipielle Problem aller Verlustbehafteten Codecs wunderbar offen:

 
Eine Audio Datei wird bitweise deterministisch decodiert. Soll heißen, dass wenn ich die gleiche Datei 1000 mal decodiere, dann erhalte ich bitweise das gleiche Ergebnis.
Eventuelle Verluste sind Rundungsfehler bei der Berechnung und eventuelle Interferenzen sind abhängig von der Qualität des Decoders (Rechenzeit). Mit gleicher Software und Hardware ist es trotzdem deterministisch.

Das Codieren einer digital vorliegenden Datei ist ebenfalls deterministisch. Soll heißen, dass wenn ich die gleiche Datei 1000 mal codiere, dann erhalte ich bitweise das gleiche Ergebnis.

Mache ich Decodieren und Codieren also im Wechsel 1000 mal, dann sollte ich (theoretisch) bitweise das gleiche Ergebnis bekommen, außer - und nun kommts:
Das Ergebnis verändert sich in der Praxis dann, wenn
  • Sich die Rundungsfehler potenzieren --> Spielt keine Rolle, wenn ich das einmal mache, bei 1000 mal eventuell schon.
  • Die verwendete Software oder Einstellung beim (De-)codieren ist auf "schnell" oder sowas eingestellt. Damit wird nicht bitweise decodiert und es können Interferenzen und andere Effekte auftreten, die das Ergebnis verfälschen = verschlechtern. Das potenziert sich ebenfalls mit der Anzahl.

--> Es ist also möglich, dass die Qualität immer schlechter wird. Der Grad der Verschlechterung hängt aber vor allem von der verwendeten Software (und deren Einstellung) und der Anzahl der Decodieren/Codieren ab, mit der sich die Verschlechterung potenziert.

Somit behaupte ich: Das was du schreibst stimmt zwar irgendwie, aber nur unter bestimmten Bedingungen. In der Realität mit einmal decodieren und einmal neu codieren sollte das alleine keine hörbare Verschlechterung bringen.

Ich halte jetzt keinen Vortrag über Nachrichtentechnik, deshalb nur der Link:
https://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem


Szenario 1:
Quelle: "Lossless" Audio Datei
Übertragung: Kabel.
Ergebnis: Kein Verlust durch einen Codec

Szenario 2:
Quelle: "Lossless" Audio Datei
Übertragung: LDAC.
Ergebnis: Datenverlust beim Komprimieren in ein kleineres Datenformat und bestimmten Umständen. Immer noch bessere Qualität als bei einer Audio-CD!!

Szenario 3:
Quelle: AAC 320 kBit/s Audio Datei
Übertragung: LDAC / aptX HD
Ergebnis: Es muss einmal decodiert werden und dann in ein Format codiert, welches eine höhere Bitrate sowie höhere Auflösung zulässt. Es müssen keine Daten weggelassen werden und somit auch nicht "nochmal" irgendwelche Frequenzen abgeschnitten werden, so wie du es beschreibst.
Ein Unterschied durch sollte hier nicht hörbar sein (im Vergleich zu dem gewünschten Lossless BT Codec).

Szenario 4 a und b
Quelle 4a: AAC 320 kBit/s Audio Datei
Quelle 4b: "Lossless"
Übertragung: SBC
Ergebnis: Bei 4a muss einmal decodiert werden und dann in ein Format codiert, welches eine trotz höherer Bitrate weniger Daten als das decodierte Original zulässt. Somit kann es sein, dass hier zusätzlich Informationen verloren gehen SBC schlechter klingt als AAC und schlechter als Szenario 3.
Ergebnis 4b. Hier kann direkt in SBC codiert werden. Da das Übertragungsformat hier der Flaschenhals ist, halte ich es für unwahrscheinlich (aber möglich), dass 4b besser als 4a klingt.
 
Wechhe schrieb:
Eine Audio Datei wird bitweise deterministisch decodiert.
"bitweise" arbeitet digitales Audio eigentlich nie[1]. Typischerweise lößt man ja jedes Sample mit 16bit oder 24bit auf. Wobei selbst das nicht der Fall ist wenn man auch nur das kleinste bisschen Kompression anwendet.

So richtig deterministisch ist das Ganze bei komprimierenden Verfahren auch nicht immer. Bei verlustbehafteter Kompression läuft man Gefahr, dass man bei ähnlichen "Mustern" in der Musik wiederkehrende, hörbare Kompressionsartefakte erhält. Das würde eher stören, weswegen man da gern mal ein paar (Pseudo-)Zufallswerte einstreut. Genauso wie manchmal etwas getrickst wird und das verlustbehaftet komprimierte Material beim decoding mit ein paar zusätzlichen Frequenzen angereichert wird, damit es besser klingt.[2] Diese Anreicherung würde ohne Zufall aber oft auch klar heraushörbare Muster ergeben. Also wird man da auch Zufall einstreuen.[3]

[1] Nicht in Bereichen von BT Audio und sonstigen komprimierenden Codecs
[2] das ist die Absicht dahinter, was dabei rauskommt mag jeder selbst beurteilen.
[3] Beim Zaubern mit Signaltechnik stört die Mustererkennung biologischer Hirne manchmal ganz extrem!
 
  • Gefällt mir
Reaktionen: Wechhe
Wechhe schrieb:
Es ist also möglich, dass die Qualität immer schlechter wird. Der Grad der Verschlechterung hängt aber vor allem von der verwendeten Software (und deren Einstellung) und der Anzahl der Decodieren/Codieren ab, mit der sich die Verschlechterung potenziert.

Somit behaupte ich: Das was du schreibst stimmt zwar irgendwie, aber nur unter bestimmten Bedingungen.

Ja, die Bedingung hieß Neu-Encodierung einer bereits verlustbehafteten Quelle mit wiederum einem verlustbehafteten Codec...

Bei Ausgangsquelle FLAC Datei und anschließend Bluetooth-Übertragung wirst Du einen deutlich geringeren Qualitätsverlust (Falls überhaupt) feststellen, als bei einer ~128kbit MP3 Datei.

Wechhe schrieb:
In der Realität mit einmal decodieren und einmal neu codieren sollte das alleine keine hörbare Verschlechterung bringen.

Was zu beweisen wäre und bei jedem Menschen anders ist.

Aber alleine die Tatsache, dass die Nutzung der Allgemeinheit Richtung Streaming mit deutlich komprimierter Musik gegangen ist, sollte klar sein, dass es keine gute Idee ist, die Signalübertragung nochmals zu verschlechtern. Das zeigt auch das Video oben. Anhand eines Videocodecs, aber dennoch.

Wechhe schrieb:
Es muss einmal decodiert werden und dann in ein Format codiert, welches eine höhere Bitrate sowie höhere Auflösung zulässt.

Ich hoffe Du bist nicht der falschen Ansicht, dass Bitrate von Codec X mit Bitrate von Codec Y vergleichbar ist, ganz egal wie die Zahlen aussehen.
 
  • Gefällt mir
Reaktionen: Wechhe
Was ihr sagt ist richtig. Bei Signalen wird natürlich nicht bit für bit decodiert (deshalb ist bitweise ein unpassender Begriff, stimmt). Decodiere ich eine Datei immer wieder, werden jedoch alle bits auf die gleiche Weise decodiert. Rechenfehler hin oder her - das Ergebnis ist für den mit jeder Codierung Menschen das gleiche. Zumindest bei einer guten Ausgangsquelle. Und AAC mit 320 kBit/s betrachte ich als gut. Ansonsten würde ja beim Musikhören oder Film gucken jedes Mal die Qualität merklich schwanken - tut sie aber nicht!
Und klar, je schlechter das Ausgangsmaterial, desto schlechter der Klang. Aber decodieren muss ich das ja eh.

Letztlich spielt es auch keine eine Rolle, sofern ich nur einmal decodiere und dann in ein anderes Format codiere.

MaverickM schrieb:
Aber alleine die Tatsache, dass die Nutzung der Allgemeinheit Richtung Streaming mit deutlich komprimierter Musik gegangen ist, sollte klar sein, dass es keine gute Idee ist, die Signalübertragung nochmals zu verschlechtern. Das zeigt auch das Video oben. Anhand eines Videocodecs, aber dennoch.

Wie gesagt, ich sehe nicht, wo man sich "nochmals verschlechtert", sofern ein vernünftiger Codec zur Übertragung eingesetzt wird. Ich betrachte LDAC als vernünftigen Codec. Und hier scheint die Meinungsverschiedenheit zu liegen. Die ganze Technikdiscussion davor ist vermutlich deshalb überflüssig :)

MaverickM schrieb:
Ich hoffe Du bist nicht der falschen Ansicht, dass Bitrate von Codec X mit Bitrate von Codec Y vergleichbar ist, ganz egal wie die Zahlen aussehen.
Vollkommen richtig. Aber bei ähnlich effizienten Codecs (in meinem Beispiel AAC, LDAC und aptX) und deutlichen Unterschieden bei der Bitrate sollte das kein Problem sein.


Damit wir uns nicht in irgendwelche Details verrennen:
Mein Argument war, dass es kein "lossless" Codec braucht, um in guter Qualität zu übertragen. Ein vernünftiger Codec mit effizienter Komprimierung, der in 16 bit, besser 24bit und ~48 kHz auflösen kann, reicht in meinen Ohren völlig. SBC ist das nicht. Aber etwas LDAC/aptX-HD ähnliches (welches nicht lossless ist), reicht völlig in einem BT Standard.
Streiten können wir uns, ob es auch euren Ohren reicht - da werden wir vermutlich aber nicht so schnell zu einem Konsens kommen ;)
 
Um hier auch nochmal kurz meinen Senf dazuzugeben:

Das Problem des hörbaren Unterschieds empfinde ich bei den verlustfreien Codecs im Filmbereich ähnlich. Ich bin hier auch der Meinung, dass 99% aller Menschen zwischen Atmos und sagen wir mal dem "alten" DTS keinen Qualitätsverlust wahrnehmen.
Viele bestehen dann sogar darauf unbedingt eine Soundbar zu kaufen, die Atmos unterstützt, weil das ja dann besser klingt :rolleyes:

ABER: Ich glaube sehr wohl, dass sie einen Unterschied hören können! Allerdings wage ich zu bezweifeln, ob man bei diesem Unterschied von besser oder schlechter reden kann. Es klingt halt irgendwie "anders". Ich denke, da steckt einfach SEHR viel Marketing dahinter und der Kunde freut sich, wenn am Verstärker eine zusätzliche LED leuchtet (für den neuen besseren Codec) und er einen Unterschied hören kann. ;)

Jetzt könnt ihr mich gerne zerfetzen :D
 
Zurück
Oben