Google zeigte kürzlich neue Features für die Brillen der Extended-Reality-Plattform Android XR. Wie nicht anders zu erwarten, bildet das multimodale KI-Modell Gemini den zentralen Kern. Im Rahmen der Android Show: XR Edition wurden neue Funktionen für bestehende Geräte sowie Pläne für kommende Smart Glasses vorgestellt. Mittels Künstlicher Intelligenz (KI) sollen Headsets und KI-Brillen Nutzern mehr kontextbezogene, alltagstaugliche Anwendungen ermöglichen.
Am Beispiel des Samsung Galaxy XR Headsets wurden neue Funktionen gezeigt: PC Connect erlaubt es, einen Windows-PC mit dem Headset zu verknüpfen und den Desktop oder einzelne Fenster neben nativen Apps auf der Android XR-Oberfläche anzuzeigen. Dies soll auch das PC-Gaming auf ein neues Level bringen, als Beispiel wurde gezeigt, wie jemand Cities Skylines 2 über die Brille spielte. Eine Transformation von Inhalten aus 2D in 3D soll 2026 folgen und die Nutzung immersiver gestalten.
Der Reisemodus wird eingeführt, damit das Headset etwa auf Flügen oder Bahnfahrten als persönlicher Arbeitsbereich oder zur Unterhaltung genutzt werden kann. So kann man auch auf beengtem Raum während der Reise einen Film über die smarte Brille anschauen. Darüber hinaus ist es möglich, sich nützliche Inhalte anzeigen zu lassen: etwa am Umsteigebahnhof oder Flughafen die nächsten, erreichbaren Verbindungen.
Ein technisch anspruchsvolles Feature, das sich aktuell in einer Beta-Phase befindet, ist "Likeness". Diese Funktion erstellt ein realistisches digitales Abbild des Nutzers inklusive Mimik und Gestik in Echtzeit - gedacht zur Nutzung in Videoanrufen. Die Umsetzung nutzt dabei Computer-Vision-Algorithmen zur Erfassung der Gesichtsdaten.
Die Android XR-Plattform basiert auf dem OpenXR-Standard und soll Entwicklern ermöglichen, mit ihren bevorzugten Engines und Tools zu arbeiten. Kommende alltaugstauglichere Smart Glasses oder KI-Brillen sollen mehr Anbindung an ein Smartphone wie das Google Pixel 10 Pro XL (bei Amazon erhältlich) benötigen, um die notwendige Rechenleistung zur Verfügung gestellt zu bekommen, wodurch kompaktere Brillen-Designs möglich werden. Gesteuert werden die Brillen primär über Spracheingabe. Die Integration von Gemini ermöglicht dann Funktionen wie Live-Übersetzungen, visuelle Objekterkennung und die Anzeige von Informationen im Sichtfeld der Nutzer.











