MWC 2026

Android XR ausprobiert: Das ist Googles Rückkehr in den Markt der Smart Glasses

Nicolas La Rocco
21 Kommentare
Android XR ausprobiert: Das ist Googles Rückkehr in den Markt der Smart Glasses

Google will dieses Jahres erste Smart Glasses mit Audio-Ausgabe auf den Markt bringen. Später sind auch Varianten mit Display im Brillenglas geplant. Einen dieser Prototypen konnte ComputerBase zum MWC 2026 kurz ausprobieren. Gemini reagierte schnell, übersetzte Spanisch und Farsi und verwandelte den Stand in eine Raumstation.

Google Gemini nimmt zentrale Rolle ein

Entsprechende Pläne hatte Google erstmals zur eigenen Entwicklerkonferenz im Mai letzten Jahres bekannt gegeben. Rund zwölf Jahre nach der Google Glass will das Unternehmen gemeinsam mit Partnern und diesmal auf Android XR basierend wieder in den Markt der Smart Glasses mit Augmented Reality einsteigen. Eine wichtige Rolle wird dabei auch Google Gemini spielen. Der AI-Assistent soll neben Smartphones, Tablets, Smartwatches, Autos und Fernsehern auch auf Android XR zum Einsatz kommen.

Zwei Brillenpartner, auch mit Korrekturgläsern

Anders als bei den Pixel-Smartphones sind nach aktuellem Stand keine Smart Glasses direkt von Google geplant. Das Unternehmen setzt aktuell auf zwei Partner, die Googles Technologie integrieren und für die eigentlichen Brillen verantwortlich sein werden. Bei den Brillenherstellern holt Google das südkoreanische Unternehmen Gentle Monster und Warby Parker aus den USA ins Boot. Beide Unternehmen sollen „stylische“ Brillen mit Android XR anbieten. Möglich sein werden dabei auch Brillen mit optischer Korrektur. Zur Messe hat Google auf entsprechende Einsätze für den Prototyp gesetzt. Mit Samsung wiederum arbeitet Google an einer Referenzplattform, um mit anderen Unternehmen ein Ökosystem neuer Smart Glasses aufzubauen. Entwickler haben seit Ende 2025 Zugang zu dieser Plattform.

Zum MWC in Barcelona konnte ComputerBase kurz einen Prototyp von Google ausprobieren, der auch bereits mit einem Display im rechten Brillenglas ausgestattet war. Ein zusätzliche visuelle Informationen darstellendes Display ist optional für Android XR. Zur ersten Markteinführung noch im Laufe dieses Jahres sind zunächst einmal Modelle ausschließlich mit Audio-Ausgabe geplant. Die ersten Smart Glasses sollen mit einer Kamera, mehreren Mikrofonen und Lautsprechern ausgestattet sein. Hardware-Partner bei den Chipsätzen ist Qualcomm. Google hatte bereits zur I/O letztes Jahr preisgegeben, dass die neuen Brillen ein Smartphone voraussetzen werden, demnach zumindest nicht in jedem Punkt vollständig eigenständig agieren. Das erlaube Nutzern den Zugriff auf Apps, ohne in die Tasche greifen zu müssen. Bedacht werden muss auch das stark limitierte Power-Budget (in Watt) von Smart Glasses. Qualcomm gibt für Augmented-Reality-Brillen ein Budget von ungefähr 1 Watt an.

Live-Übersetzung, Musik abspielen, Bildgenerierung

Mit der von Google für die Demo zur Verfügung gestellten Brille ließ sich via Sprache und einer Schaltfläche im rechten Brillenbügel interagieren. Wie auf Smartphones lässt sich Gemini mittels „Hey Google“ starten, alternativ kann eine Schaltfläche im rechten Brillenbügel für zwei Sekunden gehalten werden, um den Assistenten zu aktivieren, der daraufhin zuhört. Im Anschluss erscheint eine kleine Gemini-Sprechblase im Display des rechten Brillenglas, über die sowohl die akustischen Eingaben des Nutzers als auch die Ausgaben dargestellt. Zusätzlich erfolgt die Audio-Ausgabe über die Lautsprecher im Gestell, wobei diese primär für den Träger zu hören ist. Außenstehende konnten die Ausgabe in deutlich minimierter Lautstärke wahrnehmen, wie weitere Journalisten vor Ort bestätigten.

Anwendungsbeispiele vor Ort waren die Live-Übersetzung mit Google Translate, die Bilderkennung mit anschließender Musikwiedergabe sowie die Bildgenerierung via Nano Banana. Ein Branchenkollege konnte zudem die Navigation mit Google Maps ausprobieren, diese Anwendung war aber nicht Teil der Demo für ComputerBase.

Die Live-Übersetzung ist entweder mittels Text- oder Audio-Ausgabe möglich. Für die Demo sprach der Google-Mitarbeiter einmal in Spanisch und einmal in Farsi mit dem Träger, beides konnte die Brille mit kleiner Verzögerung annähernd in Echtzeit übersetzen. Dabei erfolgte die Audio-Ausgabe in natürlicher Sprache in Englisch, die Zeiten starrer Roboterstimmen sind definitiv vorbei. Was derzeit nicht möglich ist, ist die Audio-Ausgabe auch für die andere Person, wenn dann zum Beispiel auf Englisch geantwortet wird, die andere Person aber überhaupt kein Englisch beherrscht. Die Ausgabe erfolgt in diesem Fall in Textform über die App auf dem Smartphone.

Die Brille kann über die integrierte Kamera zudem Objekte erkennen und Aktionen mit Bezug dazu ausführen. Am Stand ließ sich ein Schallplattencover fotografieren und anschließend die zugehörigen Musik in YouTube Music abspielen. Sobald die Kamera in der Front aktiv ist, zeigt die Brille dies auch mittels LED an. Ob Google damit das „Glasshole“-Problem und das Stigma omnipräsenter Sensoren wie unter anderem Kameras gelöst hat, ist schwer zu sagen. Die Bereitschaft dafür in der Gesellschaft scheint aktuell mehr gegebenen zu sein als vor mehr als einer Dekade mit Google Glass.

Erkennen eines Albums
Erkennen eines Albums

Anfragen gehen häufig in die Cloud

Darüber hinaus stehen auch vom Smartphone bekannte Funktionen wie die Bildgenerierung mittels Künstlicher Intelligenz zur Auswahl. Nano Banana verwandelte den Stand auf individuelle Nachfrage zum Beispiel in eine Raumstation. Dabei handelte es sich um eine eigens gewählte Anfrage und nicht nur um eine von Google „vorprogrammierte“ Funktion, die das Feature lediglich emuliert. Nano Banana wird dabei in der Cloud und nicht auf dem verbundenen Smartphone ausgeführt. Ob für solche und ähnliche Funktionen in Zukunft ein kostenpflichtiges Google-AI-Pro-Abonnement vorausgesetzt wird, konnte Google vor Ort nicht beantworten. Das wird sich zur nächsten I/O respektive später im Jahr zeigen müssen.

MWC 2026 (2.–5. März 2026): Alle 20 News auf der Themenseite!
  • Android XR ausprobiert: Das ist Googles Rückkehr in den Markt der Smart Glasses
  • Rack-Scale-AI von Qualcomm: AI200 kommt mit AMD-CPUs, ab 2028+ dann eigene Oryon-CPU
  • Qualcomm FastConnect 8800: Smartphone-Modem mit Wi-Fi 8, Thread, Bluetooth 7.0 & UWB
  • +17 weitere News