Aufgedeckt

Die Datenbrille Google Glass (Update)

05.04.13 | Redakteur: Peter Koller

(Bild: Google)

Einen Blick ins normalerweise versteckte Innenleben technischer Geräte und Apparaturen wirft die Redaktion der ELEKTRONIKPRAXIS in der Rubrik "Aufgedeckt". Dieses Mal: die Datenbrille Google Glass.

Vor einem Jahr, am 5. April 2012, erschien Google-Mitgründer Sergey Brin bei einem Wohltätigkeitsevent zur Bekämpfung von Erblindung mit einer äußerst merkwürdigen Brille auf der Nase. Ein Bügel war viel dicker als der andere, und statt zweier Brillengläser befand sich ein Glasprisma vor einem Auge. Der Auftritt gilt als die erste öffentliche Präsentation von Google Glass, einem Wearable Augmented Reality System. Viele Experten trauen ihm zu, unsere Nutzung von IT im Alltag so zu verändern, wie das vor einigen Jahren dem iPhone gelungen ist.

Die technischen Details bezüglich der Datenbrille, die noch in diesem Jahr zum Preis eines guten Smartphones auf den Markt kommen soll, sind noch immer spärlich. Aus Patentanmeldungen von Google und ersten Berichten von Entwicklern lassen sich aber zumindest einige Rückschlüsse ziehen. Pünktlich zum ersten Jahrestag der ersten öffentliche Präsentation von Google Glass hat der Suchmaschinenriese auch das Video eines Vortrags bei der Webkonferenz SXSW veröffentlicht, in dem Entwicklungsingenieur Timothy Jordan die Brille ausführlich demonstriert (siehe Video am Ende des Textes).

Kern von Google Glass ist ein Embedded-System vermutlich auf Basis von Googles eigenem Mobilbetriebssystem Android. Ebenfalls integriert ist ein WLAN-Modul zum Senden und Empfangen von Daten über das Web. Alternativ kann Google Glass auch via Bluetooth mit einem Smartphone kommunizieren und dessen 3/4G-Datenverbindung nutzen.

Gesteuert wird Google Glass im Wesentlichen über Spracherkennung mit Kommandos wie "OK, Glass, take a picture", etwa um ein Foto auszunehmen. Dazu ist eine Kamera integriert, die neben Standbildern auch 10 Sekunden lange Videos im HD-Format 720p aufnehmen kann. Weitere Kommandos lösen die Aufnahme eines Videos aus, starten eine Google+ Hangout Videokonferenz, zeigen Navigationsinformationen an oder schicken eine Nachricht an andere Personen. Alternativ kann eine Steuerung über ein Touchpad am rechten Bügel erfolgen. Auch bestimmte Kopfgesten werden erkannt und ausgewertet. So startet ein leichtes Zurücklegen des Kopfes das System.

Google-Film: How It Feels (through Glass)

Ausgegeben werden Informationen über ein Miniaturdisplay und ein Glasprisma. Dies kann sich entweder im peripheren Blickfeld des Benutzers befinden oder im Zentrum, wo das eingeblendete Bild dann die reale Sicht überlagert. Die angezeigten Informationen können neben Text zum Beispiel auch Landkarten und Navigationspfeile sein oder sogar Videos, die von dem verbundenen Smartphone aus abgespielt werden.

In Google Glass integriert sind auch Sensoren wie GPS, Beschleunigungssensor, Gyroskop, Kompass. Patentanmeldungen von Google lassen auch bereits auf spätere Ergänzungen schließen wie zum Beispiel ein per Laser auf die Handfläche projizierte virtuelle Tastatur. Eine andere Patentanmeldung beschreibt die Audioübertragung durch einen vibrierenden Transducer und Knochenleitung anstelle von Lautsprechern oder Ohrhörern.

Zwei der führenden Köpfe hinter Google Glass sind die Ingenieure Babar Parviz, der zuvor bereits an der Nutzung von Kontaktlinsen als Displays gearbeitet hat und Sebastian Thrun, der auch federführend bei Google Projekt eines autonomen Autos ist.

Eine Entwicklerversion von Google Glass wird gerade für rund 1500 US-$ an ausgewählte Personen vergeben, eine kommerzielle Version noch in diesem Jahr folgen. Dazu will Google auch mit Herstellern herkömmlicher Brillengestelle zusammenarbeiten. Produziert werden soll Google Glass vom taiwanischen Auftragsfertiger Foxconn in einer Fabrik in den USA.

Laut Entwickler Timothy Jordan ist Glass ein System, das nicht mit dem realen Leben konkurrieren, sondern es unaufdringlich ergänzen soll. Dementsprechend müssten Apps für Glass vier Designrichtlinien entsprechen:

  • Designed for Glass: Apps müssten speziell für die Datenbrille und deren Möglichkeiten programmiert sein. Für eine Zeitungs-App etwa würde es sinnvoll sein, nur die Überschriften im Display anzuzeigen, die Artikel aber von der App vorlesen zu lassen.
  • Don’t Get In The Way: Die Apps dürften nicht zu sehr von der Realität ablenken. Ständige Status-Updates etwa sollten vermieden werden.
  • Keep it Timely: Apps sollten Informationen zu der realen Umgebung nahezu in Echtzeit anzeigen können.
  • Avoid the Unexpected: Apps sollten dem User via Glass nur das anzeigen, was er in der speziellen Situation erwartet, um ihn nicht von der Realität abzulenken.

Hier das Video in voller Länge:

Google-Vortrag bei der SXSW: Building New Experiences with Glass

Mehr Beiträge aus der Rubrik Aufgedeckt finden Sie in folgender Bildergalerie:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 38977200 / Sensoren)

Fachwissen abonnieren

Der begleitende Newsletter zur ELEKTRONIKPRAXIS Heftausgabe: Alle Beiträge online und übersichtlich zusammengefasst. Plus: Exklusive Onlinebeiträge aus der Elektronikentwicklung.

* Ich bin mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung und AGB einverstanden.
Spamschutz:
Bitte geben Sie das Ergebnis der Rechenaufgabe (Addition) ein.

ePaper-Ausgabe kostenlos lesen

ELEKTRONIKPRAXIS 12/2016

ELEKTRONIKPRAXIS 12/2016

FPGA-basierte Systeme zeitgemäß entwickeln

Weitere Themen:

Embedded-Software-Strategie
String-PV-Anlagen sicher abschalten

zum ePaper

zum Heftarchiv

ELEKTRONIKPRAXIS 11/2016

ELEKTRONIKPRAXIS 11/2016

Gerätesteckverbinder für das THR- und SMT-Löten

Weitere Themen:

Stabilisierung des Traktionsnetzes
Hall-Sensoren im Automobilbau

zum ePaper

zum Heftarchiv