AR-Brille mit Scheuklappen

XR und KI

XREAL Project Aura soll die erste AR-Brille für alle sein. Ich bin fasziniert. Und skeptisch. Beides gleichzeitig.

Morgens aufzustehen, die Brille aufzusetzen. Und sofort schwebende Fenster im Blickfeld zu haben. Kalender links, Wetter rechts, Nachrichten irgendwo über dem Kühlschrank. Kein Headset, kein Kabel zum PC, kein Gefühl, in einen Eimer zu schauen. Einfach: Brille auf, Welt erweitert. Das ist das Versprechen von XREAL Project Aura, der ersten AR-Brille, die Googles neues Android-XR-Betriebssystem in einem Formfaktor bringt, den man tatsächlich auf der Nase tragen kann.

Aura ist dabei kein gewöhnliches Brillen-Gadget: Sie läuft auf einem eigenen Snapdragon-XR2+-Gen-2-Chip, dem gleichen, der auch in Samsungs Galaxy-XR-Headset steckt, und bringt das vollständige Android-XR-Erlebnis in ein deutlich kompakteres Gehäuse. Statt eines wuchtigen Headsets trägt man eine übergroße Sonnenbrille, die per Kabel mit einem kleinen Compute-Puck verbunden ist, der in der Hosentasche verschwindet. Der Puck sieht aus wie ein Smartphone, dessen gesamte Frontfläche ein Trackpad ist – also gleichzeitig Eingabegerät und Rechenzentrale. Das ist clever. Das ist kompakt. Das ist das Konzept, auf das viele seit Jahren warten.

Wie immer gibt es einen Haken. FOV, Field of View. Der Blickwinkel, durch den die digitale Welt erscheint. XREAL bewirbt stolz 70 Grad als das Größte, was sie je gebaut haben. Und ja, das stimmt: Das ist ein deutlicher Sprung gegenüber dem XREAL One mit 50 Grad und dem One Pro mit 57 Grad. Für AR-Brillen ist 70 Grad tatsächlich beachtlich. Aber hier muss ich kurz ehrlich sein. Auch auf die Gefahr hin, den Hype ein bisschen abzukühlen.

Zum Vergleich: Die Meta Quest 3 kommt auf 110 Grad Field of View. Das menschliche Auge nimmt insgesamt rund 200 Grad wahr, der komfortable Fokusbereich liegt bei etwa 120 Grad. 70 Grad bedeutet also: Man sieht die digitalen Inhalte in einem Bereich, der etwa so groß ist wie ein Fenster geradeaus – und rundherum trotzdem die echte Welt. Für schwebende Browser-Fenster, Nachrichten oder eine virtuelle Leinwand beim Filmschauen funktioniert das gut. Analysten bezeichnen 70 Grad als das Minimum, damit ein vollständiges Betriebssystem wie Android XR tatsächlich sinnvoll nutzbar ist. Aber wer hofft, in eine wirklich immersive Mixed-Reality-Welt einzutauchen – in der digitale Objekte den ganzen Raum füllen, wie man es aus VR-Demos kennt – der wird an den Rändern dieses Fensters schnell an eine unsichtbare Wand stoßen.

Erschwerend kommt hinzu: Aura verwendet keine Waveguide-Technologie wie zukünftige AR-Brillen von Meta oder Apple, sondern günstigere prismatische Optiken – was dazu führt, dass die Gläser deutlich weiter vom Auge entfernt sitzen als normale Brillen und das Gerät dadurch leicht eigenartig wirkt. Man trägt also keine unauffällige Alltagsbrille, sondern etwas, das auf den zweiten Blick doch nach Technik aussieht. Und weil kein Eye-Tracking verbaut ist, fällt der natürliche „Blick und Pinch"-Input weg – stattdessen navigiert man mit einem Laserpointer-System, das sich klobiger anfühlt.

Das klingt nach Kritik. Ist es auch – aber fair formuliert: Diese Einschränkungen sind der Preis dafür, dass Aura überhaupt existiert. Waveguide-Optiken, die wirklich unauffällig wirken, sind Stand heute entweder unbezahlbar oder noch im Labor. Metas Orion-Prototyp mit 70-Grad-Waveguide-FOV soll intern über 10.000 Dollar pro Einheit kosten. Aura positioniert sich bewusst als Brückengerät – zwischen dem bulligen VR-Headset und der ultraleichten KI-Brille der Zukunft. Ein Kompromiss? Ja. Aber ein durchdachter.

Meiner Meinung nach ist Project Aura deshalb spannend – nicht weil es perfekt ist, sondern weil es ehrlich ist. Es sagt nicht: „Vergiss die Welt, tauche ein." Es sagt: „Hier ist ein Fenster in die digitale Zukunft – und du kannst immer noch links und rechts davon rausschauen." Für Produktivität, Navigation, Übersetzung, floating Screens beim Reisen: Das funktioniert. Für vollständiges Spatial Computing, in dem virtuelle Objekte den ganzen Raum füllen: Noch nicht. Noch nicht.

← Zurück zur Blog-Übersicht