Autokiller677
Fleet Admiral
- Registriert
- Jan. 2009
- Beiträge
- 10.414
Zumindest unter Windows liegt das häufig auch einfach an der erbämlichen Bluetooth-Implementierung seitens Windows.user_zero schrieb:Oder das die Airpods nur gescheit in Verbindung mit Apple funktionieren und auf Android oder Windows oft schlechter klingen, das muss auch nicht sein.
Bei meinem Bluetooth-Lautsprecher und Büro-Headset geht die Soundqualität auch immer komplett den Bach runter (nur noch Mono, schlechtere Abtastrate), sobald Windows aufs Mikrofon zugreift, weil Windows für Ton + Mikro nur irgendein uraltes Bluetooth-Profil unterstützt, dass dann nur schlechte Audioqualität zulässt.
Beide Geräte haben keinerlei Probleme mit gleichzeitiger Nutzung von Mikro + Lautsprecher unter Linux, iPhone, Android, whatever. Läuft immer mit guter Soundqualität. Nur Windows kann's nicht.
Microsoft geht das aber offenbar endlich mal an mit einem der nächsten Updates: https://www.heise.de/news/Windows-11-Microsoft-will-den-Bluetooth-Klang-verbessern-10626455.html
Zum einen ist überhaupt nicht klar, ob das gefordert würde - Apple schiebt das als Grund vor, aber die EU hat diese neuen Features nie bewertet und keine Forderungen gestellt. Es geht also vor allem drum, was Apple glaubt, was vielleicht passieren könnte.user_zero schrieb:Bei der iPhone-Synchronisation und dem Translater der Airpods Pro 3 wiederum sehe ich das nicht so. Warum sollte Apple seine R&D Ergebnisse anderen kostenfrei zur Verfügung stellen? Warum sollte Apple Intelligence auf Android laufen?
Und das wäre dann auch nicht, dass Apple die Features für Synchronisation und Übersetzung frei Haus anderen geben müsste. Sie müssten nur die Schnittstellen (die sie für ihre Implementierung eh haben müssen) öffnen und dokumentieren, so dass auch andere das über eine App anbieten könnten.
Implementieren müssten diese anderen das trotzdem schon noch selbst.
Genauso wie z.B. bei der Öffnung für 3rd Party Stores Apple den alternativen Stores ja nicht den Source-Code des AppStores liefern musste - sondern eben Schnittstellen, dass dieser Store mit iOS interagieren kann.
Bei der Übersetzungsfunktion der AirPods z.B. ginge es da wohl im wesentlichen drum, in Echtzeit den Mikrofon-Stream abzugreifen und dann die Übersetzung in den Audio-Stream zu schieben.
Wenn man sich nur auf bestehende offene Standards bezieht, wird man halt für neue Sachen bald einfach keine offenen Standards mehr haben, weil keine Firma mehr was öffentlich machen will, nach der Logik "wenns keinen offenen Standard gibt, kann man mich auch zu nix zwingen".user_zero schrieb:Ich finde, man sollte den DMA weiter ausdifferenzieren, Übergangsfristen schaffen und offene Standards, die unterstützt werden müssen, klar benennen (Bluetooth Protokoll, Audiocodec, Monetarisierung im App-Store).