News Neuer Codec und Sharing: Neuer Bluetooth-Audio-Stan­dard bringt viele Vorteile

Und wieder kein Lossless Codec. Wen interessiert denn, ob das Ding Strom spart, wenns trotzdem besch...eiden klingt!?
 
@M-X
Siehe dass, was @Piktogramm geschrieben hat.
Gerade dass du hier WLAN, 5G und Bluetooth in einen Topf wirfst, da sträuben sich mir hier fast die Haare...

Aber selbst, wenn all diese Standards auch die Musikübertragung im Kopf hätten: je mehr Bits/s du codieren musst, desto mehr Energie brauchst du. Sprich, dein Smartphone wird beim Senden (und dein Kopfhörer dann beim Empfangen und Decodieren) deutlich mehr Strom verbrauchen als bisher.

Und dass sind nur die offensichtlichen Probleme: ein solches Verfahren hat mit Sicherheit noch einige, die einem nicht direkt einfallen.
 
Danke für die basis Stunde Physik. Das Beispiel 5G und WLAN waren natürlich provokativ formuliert. Ich wollte damit nur ausdrücken das große Bandbreiten möglich sind.

AptX (HD) und LDAC zeigen doch was an Qualität mit BT möglich ist. Warum wird sowas nicht in einen BT 5.1 gekippt? Warum muss das proprietärer mist sein?
 
MaverickM schrieb:
Und wieder kein Lossless Codec. Wen interessiert denn, ob das Ding Strom spart, wenns trotzdem besch...eiden klingt!?

Hast du mal einen Blindtest mit (ordentlich konvertierten) 320 kbit/s und Lossless gemacht?

Ich nämlich schon zusammen mit anderen und keiner von uns konnte es unterscheiden. Sowohl mit einer ziemlich guten HI-FI Anlage als auch mit ordentlichen Kopfhörern (Sony MDR-1ABT, 399€ UVP)

Mag sein, dass mit noch besserer Ausrüstung oder überlegenen Ohren ein Unterschied hörbar ist.
Ich möchte nur darauf hinweisen, dass es gut sein kann, dass Lossless für den mobilen Bereich (da wo Bluetooth Anwendung findet) eventuell im Jahr 2020 dank vernünftiger Codecs nicht mehr notwendig ist.
 
  • Gefällt mir
Reaktionen: Hansdampf12345
Ja, zumal die meisten Bluetooth Kopfhörer ohnehin nicht sonderlich gut klingen.
Es dürfte auch gar nicht so leicht sein, da einen Wandler und Verstärker mit einzubauen, der wenig verzerrt und rauscht. Man hat halt nicht viel Platz, und es darf nicht viel Strom ziehen.

Ich habe aptX/SBC/etc. jetzt noch nicht blind verglichen.
Aber bei vernünftig encodetem MP3 höre ich schon bei 192kbps keine Degradierung mehr.
Im direkten Vergleich bei manchen wenigen Songs eventuell in den High Hats ... aber das hat halt null Relevanz für den Hörgenuss, sondern ist eben nur etwas, das man wahrnehmen kann, wenn man sich mega darauf konzentriert und danach sucht (und eben direkt vergleicht).
 
  • Gefällt mir
Reaktionen: Hansdampf12345 und Wechhe
Wechhe schrieb:
Hast du mal einen Blindtest mit (ordentlich konvertierten) 320 kbit/s und Lossless gemacht?

Spielt keine Rolle, ich will Lossless. Warum sollte ich eine Verschlechterung in Kauf nehmen, wenn die analoge Kabelübertragung günstiger und besser ist!?

Mal ganz davon abgesehen, dass es nicht um den verwendeten Codec für das Dateiformat, sondern für die Bluetooth-Übertragung geht. Das sind halt zwei Paar Stiefel.

Wechhe schrieb:
dass Lossless für den mobilen Bereich (da wo Bluetooth Anwendung findet) eventuell im Jahr 2020 dank vernünftiger Codecs nicht mehr notwendig ist.

aptX (HD) und selbst LDAC klingen tatsächlich noch schlechter als analoge Übertragung. LDAC kommt selbst mit maximaler Bitrate noch nicht an analoge Kabelübertragung ran. Ein Vernünftiger Codec ist immer Lossless. Ich sehe nicht ein, warum ich meine Musik verstümmeln sollte. Im Jahr 2020 habe ich genug Speicherplatz, um auch Mobil meine FLAC Dateien mitzunehmen.
 
  • Gefällt mir
Reaktionen: Keiyuu und M-X
M-X schrieb:
[...]
AptX (HD) und LDAC zeigen doch was an Qualität mit BT möglich ist. [...]

Wenn man sich mal Messungen dazu anschaut (das subjektive Hören ist ja definitiv kein Maßstab), liegen weder AptX noch AptX HD wirklich hörbar über der normalen Bluetooth-Kompression.
Zusammenfassung der Ergebnisse der verlinkten Seite:
  1. aptX ist nicht besser als der Standard-Codec SBC@328
  2. aptX HD ist messbar besser, aber in Hinsicht auf die deutlich erhöhte Datenrate könnte es deutlich besser sein
  3. für 99% ist die Standard-Übertragung mit SBC vollkommen ausreichend und sie setzt keine Spezialgeräte auf Sender- und Empfängerseite voraus.
Viel Spannender ist aber, dass es möglich ist, die Datenrate des Standard-Codecs auf Niveau von AptX HD zu erhöhen, ohne dafür spezielle Hardware zu benötigen. Nennt sich SBC XQ.

M-X schrieb:
[...]Warum wird sowas nicht in einen BT 5.1 gekippt? [...]

Weil es einfach keine ausreichend große Zielgruppe dafür gibt. Und wer unbedingt möchte, kauft sich LDAC fähige Geräte und ist glücklich.

Edit: @MaverickM : schön, dass du das willst. Dafür gibt es auch Lösungen (z.B. DLNA, AptX Losless per WiFi oder Airplay). Wenn dir die nicht passen, musst du wohl in die Entwicklung gehen oder Demonstrieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und Wechhe
Als ich hörte, dass sogar Sony ihre eigene Entwicklung zur Übertragung von Lossless / hoch aufgelöster Musik LDAC in neue Kopfhörer nicht mehr drin haben, war ich sehr überrascht.
Vielleicht gibt es Gründe, weshalb es nicht geht mit BT5.0, oder es stimmt, dass LDAC heute nur geringen oder keinen Vorteil bietet.

Meine Sony MDR-1ABT sowie mein Samsung S7 unterstützen LDAC. Und meine Ohren hören keinen Unterschied zwischen LDAC und SBC mit FLAC Dateien (~1 MB/s, 44,1 kHz). (Ausgabe über eine OpenSL ES Hi-Res Bluetooth Schnittstelle mit 24-bit und 96-192 kHz nativ und SoX Resampler)

Also entweder sind meine Ohren schlecht, meine Ausrüstung schlecht, oder es ist eben doch mehr Einbildung.
Wie dem auch sei - gut für mich, da ich beim Kauf zukünftig nicht auf LDAC und co achten muss - es bringt mir ja eh nichts. ;)

edit:
@MaverickM

Du willst Lossless also aus Prinzip, ohne den Unterschied selbst ausprobiert zu haben in einem Blindtest? Und trotzdem behauptest du, das LDAC und aptX HD schlechter klingen als analog?
Kannst du mir dazu bitte die verwendeten Geräte nennen, mit denen das bei dir so ist?

Denn wenn du behauptest, dass selbst LDAC hörbar schlechter klingen, als eine analoge Übertragung, dann behaupte ich: Unsinn!
Bei SBC okay... aber LDAC auch?

SBC: 345 kBit/s bei 48 KHz
LDAC 990 kBit/s bei 96 kHz/24 bit
CD: 1411 kBit/s bei 44.1 KHz/16 bit

Im hörbaren Bereich von 10 Hz bis 20 kHz und einer Dynamikrange von 120 dB sollten hier weder mit aptX HD und erst recht nicht mit LDAC irgendwelche Verluste auftreten bei der Übertragung / Komprimierung der Daten. Das kannst du auch leicht selbst ausrechnen, wenn du dich mit dem Thema etwas auskennst ;)

Da spielen die D/A Wandler in den Geräten sicher eine größere Rolle! Was benutzt du denn da so?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hansdampf12345
USB-Kabeljau schrieb:
Ja, zumal die meisten Bluetooth Kopfhörer ohnehin nicht sonderlich gut klingen.
Es dürfte auch gar nicht so leicht sein, da einen Wandler und Verstärker mit einzubauen, der wenig verzerrt und rauscht. Man hat halt nicht viel Platz, und es darf nicht viel Strom ziehen.
Digitale Verstärkerschaltung bekommt man abgesehen von ein paar Spulen und Kondensatoren zum Filtern problemlos in einen sehr kleinen IC verpackt. Wirkungsgrade um 95% (inkl. Filter), SNR typischerweise ab 90dB und über den Frequenzbereich von 5-20.000Hz weniger als 0,05dB Abweichung und das bei einer Ausgangimpedanz von unter 1Ohm. Das war Stand der Technik von damals kleiner und vergleichsweise günstigen Massenprodukten:
https://nwavguy.blogspot.com/2011/02/sansa-clip-measured.html

Muss halt (wie immer) ordentlich implementiert werden und das passiert meist nicht. Anstatt das ordentlich zu implementieren gibt dagegen gern mal Audiovoodoo mit ineffizienzen OpAmps mit viel zu hoher Ausgangsimpedanz etc. pp.
 
Also ich hatte bislang nur deutlich rauschende Bluetooth-Kopfhörer auf/in den Ohren.

MaverickM schrieb:
Spielt keine Rolle, ich will Lossless. Warum sollte ich eine Verschlechterung in Kauf nehmen, wenn die analoge Kabelübertragung günstiger und besser ist!?
Nach der Logik müsstest du dir sofort den ersten verfügbaren 8K Monitor kaufen.

Spielt doch keine Rolle, ob du davon was hast.
Wieso solltest du eine Verschlechterung auf 4K in Kauf nehmen?
 
  • Gefällt mir
Reaktionen: Wechhe
lordZ schrieb:
Bluetoothverbot während des Fluges habe ich aber noch nie gehört. Eventuell bei manchen Airlines bei Landung/Start?

In vielen Flugzeugen (meist Kurz-, oder Mittelstrecke) ist alles, was funkt verboten. Also auch Bluetooth und WLAN.
In immer mehr Flugzeugen (auf fast allen Langstrecken und vielen Mittelstrecken) wird jedoch WLAN angeboten und dann ist natürlich auch Bluetooth erlaubt, welches auf der gleichen Frequenz 2,4 GHz ist.
Während Start und Landung muss aber auch das auch gemacht werden.
 
USB-Kabeljau schrieb:
Wieso solltest du eine Verschlechterung auf 4K in Kauf nehmen?

Selten ein unsinnigeres Argument gehört. Fällt dir wirklich nichts besseres ein? :rolleyes:
 
Das war doch deine eigene Aussage:
"Mir egal, ob ich den Unterschied hören kann. Ich will Lossless!"
Wo ist jetzt der Unterschied zu?:
"Mir egal, ob ich den Unterschied sehen kann. Ich will 8K!"

Richtig. Es gibt keinen.
 
Nein, Deine Behauptung war eine ganz andere. Du hast behauptet, alles unter 8k wäre ein Qualitätsverlust. Da quasi noch keinerlei Quellen in 8k vorhanden sind, kann es dort auch keinen Qualitätsverlust geben.

Dagegen gibt es absolut keinen vernünftigen Grund, warum man eine teurere, aber schlechtere Technologie kaufen sollte.
 
  • Gefällt mir
Reaktionen: M-X
Klar gibt es da Gründe.

Wobei „schlechter“ und besser ja auch sehr subjektiv sein können.

Du beziehst dich auf die Audioqualität. In der Hinsicht mag die Variante „Kabel“ besser sein.

Wenn mein Augenmerk jetzt aber auf Mobilität liegt. Läufst du mit nem 50m Kabel durch den Garten, wenn du ne LP beim Blumen gießen hören willst?

Hier muss man halt mal über den oft erwähnten Tellerrand schauen, dann findet man genug Gründe.
Klar, ist unbequem, aber machbar.
 
Genau, mein Kopfhörer am Smartphone braucht ja ein 50m Kabel, weil ich ja nicht das Smartphone mitnehmen kann...

Wie haben wir mit dem Walkman nur die 80er und 90er überlebt? :evillol:
 
  • Gefällt mir
Reaktionen: M-X
MaverickM schrieb:
Nein, Deine Behauptung war eine ganz andere. Du hast behauptet, alles unter 8k wäre ein Qualitätsverlust.
Junge. Lern bitte erstmal lesen. Das ist ja nicht zum aushalten hier.

Und hör auf dich rauszureden. Deine Aussage war sinngemäß:
"Ich will bessere Qualität auch wenn ich die nicht wahrnehmen kann."

Steh doch wenigstens dazu, oder nimm's halt zurück.
 
Wieso sollte man 8k nicht wahrnehmen können!? Ich rede mich nicht raus, Du hast Unsinn geschrieben! Und das kann zum Glück jeder oben nachlesen.
 
Nein. Ich habe nicht geschrieben, daß man 8K nicht wahrnehmen kann.
Das war lediglich ein beispielhafter Vergleich. Ob man von 8K was hat, hängt vom Anwendungscase ab.

Der Nutzen derzeit geht allerdings gegen Null, da es kaum Material gibt und du die wenigsten Spiele flüssig in dieser Auflösung zocken können wirst.
 
Zurück
Oben