Institut für Informatik | Sitemap | LMU-Portal
English
  • Startseite
  • Studieninteressierte
  • Studierende
  • Lehrveranstaltungen
    • Archiv
    • WS 2006/2007
      • AR
      • DM
      • FOTO
      • HS
      • IV3D
      • MMI1
        • Essays
      • MMN
      • OS
      • PEM
      • PMG
  • Forschung
  • Personen
  • Kontakt
  • Besucher
  • Jobs
  • FAQ
  • Intern

”Wearable Computing“

Autor: Florian Huber

1. Einleitung

Der Begriff ”Wearable Computing“ beschreibt tragbare Computer. Genauer genommen befasst man sich mit Computern, welche wie eine Jacke, ein Rucksack oder ein Helm angezogen werden. Hierbei ist natürlich die Form des Computers maßgeblich davon abhängig, in welchem Einsatzgebiet er genutzt wird. Grundlage der ”Wearable Computing“-Bewegung ist es, den Einsatzbereich des Computers weg vom klassischen Schreibtisch hin zu den Anwendungsgebieten des Benutzers zu bringen. Zudem sollen solche Geräte dem Menschen im alltäglichen Leben wie ein ”Butler“ zur Seite zu stehen und zu wissen, was die aktuellen Bedürfnisse des Benutzers sind und ihn dabei mit gerade benötigter Information versorgen. Er soll auch in die nahe Zukunft blicken können und durch Erlernen der Benutzergewohnheiten Daten jeglicher Art, die in Kürze für den Benutzer von Interesse sein können, bereitstellen. Zudem soll er die heute schon genutzten portablen und weit verbreiteten Möglichkeiten der Computerunterstützung wie, Personal Digital Assistent (PDA), Handy, MP3- oder CD-Player, Kamera oder einfache Geräte wie einer Armbanduhr integrieren und zusammenfassen.

2. Erweiterung klassischer Interfaces

In der klassischen Computernutzung basiert 95% aller Arbeiten auf normaler Textverarbeitung. Suchanfragen werden getippt und danach ausgewertet. Hierbei wird dem Nutzer nicht sonderlich assistiert. Zudem wird auch ein Großteil der Rechenzeit und -leistung verschwendet, in der der Computer nichts tut und nur auf Eingaben wartet. Um diesen Missstand zu verbessern, und den oben erwähnten Wünschen und Zielen näher zu kommen, wurden Anstrengungen unternommen im Bereich ”Augmented Memory“. Hauptaugenmerk liegt hier auf der Nutzung der ungenutzten Rechenleistung, welche zwischen den klassischen Arbeitsabläufen und Anfragen ist. Während dieser Phasen soll ein so genannter Informationsagent, Informationen sammeln, die mit der gerade ablaufenden Aufgabe in Verbindung stehen oder in Kürze vom Benutzer benötigt werden könnten. Dabei soll der Agent aber nicht nur vom Benutzer getrieben werden, sondern selbst anhand von selbsterlernten Querverweisen, dem Benutzer möglicherweise interessante alte Notizen oder Dateien anbieten und ihm so bei der aktuellen Arbeit eine weitere Sichtweise bieten, welche er im selben Moment vielleicht nicht gehabt hätte. So soll zum Beispiel beim Erstellen dieses Dokuments der Agent neben persönlichen E-Mails zu diesem Thema auch das unter Quellen aufgeführte Paper finden und mir anbieten. Durch schnurlose Anbindung an das Internet könnten hier auch gleich weiterreichende Suchanfragen gestartet werden, welche der Agent jedoch vorfiltert, um mir so themenfremde Dokumente und Webseiten zu ersparen. Natürlich muss der Agent hier den Kontext meiner Aufgabe verstanden haben, damit nicht in diesem Fall der Begriff Agent aus einem anderen Kontext erscheint.

Am MIT setzen die Forscher für diesen Informationsagent oder auch Erinnerungsagent eine Abwandlung des aus der Unix/Linux-Welt bekannten Texteditors Emacs ein. Hierbei nimmt der Agent die Eingabe und sucht in Echtzeit passende Querverweise zu Dateien und Notizen und zeigt diese, nach Filterung und Gewichtung, im unteren Bereich des Fensters an. Hier werden für den Betrachter wichtige Informationen zu den gefundenen Dateien angezeigt um die Erinnerung an diese Dokumente aufzufrischen. Durch anwählen der Treffer werden die Dokumente dann geöffnet. Zur Filterung und Gewichtung, kann man dem Agent einstellen, wie viele Worte er auf dem aktuellen Dokument zur Suche verwenden soll. Dies hat natürlich einen direkten Einfluss auf die Qualität der Treffer. Um die Qualität der Treffer hoch zu halten ist es wichtig, dass der Agent viele persönlich erstellte Dokumente indizieren kann, hier sind E-Mails und Notizen deutlich bessere Grundlagen als Webseiten, da der Agent nur über die persönlichen Dokumente den passenden Kontext und die Wissensstufe des Benutzers erreichen kann und ihm befriedigende Ergebnisse zurückliefern kann. Diese Art der Informationsbeschaffung und Art Informationen in Echtzeit oder sogar im Vorfeld bereit zu stellen, ist für die Einsatzgebiete des ”Wearable Computing“ von enormem Nutzen.

Eine weitere Erweiterung klassischer Eingabegeräte ist nötig, um ein Zeigegerät nutzen zu können. Der klassische Weg mittels einer Maus ist hier wenig benutzerfreundlich und nicht natürlich. Aus diesem Problem heraus wurde das so genannte Finger-Tracking entwickelt. Da auf dem Heads-Up-Display des ”Wearable Computers“ schon Videokameras sitzen um die Umgebung zu erfassen und das Blickfeld des Benutzers überwachen, ist es einfach die Video-Daten zu nutzen um den Finger als Zeigegerät zu verwenden. Hierbei wird mittels Mustervergleichen die Hand des Benutzers verfolgt. Durch diese verhältnismäßig einfache Art die Hand als Mausersatz zu nutzen ist es möglich ohne extra Gerätschaften auf klassischen Benutzeroberflächen zu agieren.

3. Kamera-gestützte Realität

Der Einsatz von Kamera-gestützter Realität ist im Bereich ”Wearable Computing“ unabdingbar. Zur schnellen und unaufdringlichen Überwachung des Benutzers und dessen Umwelt ist es nötig auf dessen Heads-Up-Display ein Videosystem zu installieren, welches diese Aufgabe erfüllt. Hierbei soll das System aus Sicht des Benutzers sämtliche Informationen erhalten.

Der Einsatz bringt jedoch ein paar Hindernisse mit sich. Da man gerne zu Objekten im Raum Informationen anbieten möchte, muss das System erstmal wissen, was für Objekte sich wo im Raum befinden. Hierzu gibt es unterschiedliche Anwendungsszenarien, die auch unterschiedliche Arten der Objekterkennung bieten. Angefangen bei der einfachsten Art herauszufinden wo auf der Erde man sich befindet, bis hin zur Navigation in Gebäuden oder gar der tatsächlichen Erkennung von Gegenständen.

Im Freien gestaltet sich eine Ortung mittels des Global Positioning System (kurz GPS) sehr einfach. Ein GPS-Empfänger an das System angeschlossen, schon weiß man immer ziemlich genau, wo man sich befindet. Diese Information kann man nutzen um in Datenbanken hinterlegte Informationen zu Orten im Display anzuzeigen. Klassisches Einsatzszenario für den ”Wearable Computer“ ist hier der Reiseführer. Zur gerade vor einem stehenden Sehenswürdigkeit liefert er alle Informationen, die mich interessieren.

Natürlich könnte man die Informationen auch mittels Kurzstrecken-Funk, z.B. Bluetooth von der Sehenswürdigkeit an das System übermitteln lassen. Dies ist auf ein Ansatz, um das Problem der fehlenden GPS-Funktionalität im Inneren von Gebäuden zu lösen. Dieser Einsatz ist die etwas weitergeführte Grundidee, Gegenstände mit kennzeichnenden Etiketten zu versehen, welche vom Videosystem erkannt werden. Jedoch stößt man hier schnell an die Grenze der maximalen Anzahl solcher Etiketten.

Wesentlich eleganter ist der Einsatz eines kostengünstigen Systems basierend auf Infrarot-Sendern. Diese Sender können problemlos in der Nähe von Lampen installiert werden, dort erhalten sie auch automatisch über eine Solarzelle die nötige Energie. Mit ihrer Hilfe und einem Infrarot-Empfänger auf dem Kopf kann nun auch auf ähnliche Weise wie bei GPS in geschlossenen Räumen eine Positionsbestimmung vornehmen. Dieser ganze Aufwand ist nötig um den Rechenaufwand der bei der Erkennung von Objekten im Raum entstehen würde gering zu halten. Es ist somit einfacher, bei gegebener Position vorauszusagen wie Gegenstände dort sein werden und sie dann mit Informationen in Verbindung zu bringen. Besonders aufwändig ist z.B. bei Wartungsarbeiten an einem Gerät den Ablauf der Wartung als überlagertes Video in die semitransparente Brille einzubinden, so dass es aussieht, als würde das Gerät z.B. wirklich eine Klappe öffnen. Natürlich macht solch ein System dann nur einen Sinn, wenn die Schritte die man eingeblendet sieht auch in Realität genauso nachmachen muss und nicht erst überlegen wo denn die passende Stelle ist. Hat man nun also seine Lage und die des Geräts im Raum bestimmt, ist es leichter die Überlagerungen passgenau einzuspielen. Mittels des oben erwähnten Zeigegerätersatzes ”Finger-Tracking“ ist es dann auch problemlos möglich sich weitere Informationen zu Objekten im Raum anzeigen zu lassen. Es ist auch denkbar, dass auch Objekte aktive Rollen übernehmen. So könnte z.B. eine Pflanze nach einem im System hinterlegten Zeitplan dem Benutzer im Heads-Up-Display die Meldung darstellen, dass sie gegossen werden möchte. Der Fantasie sind hier keine Grenzen gesetzt.

Ein weiterer Punkt ist natürlich, Gegenstände rein mittels der Videodaten zu erkennen. Besonders interessant ist hierbei die Gesichtserkennung. Es wäre z.B. möglich weitere Informationen zum Gesprächspartner zu erhalten, während man sich mit ihm unterhält. Der Computer erkennt die Person und sucht nebenbei die letzte E-Mail oder beliebige Informationen. Wenn die Bilddaten ausreichender Qualität sind, ist es lediglich ein geringer Rechenaufwand, einen Vergleich in einer Datenbank vorzunehmen. Dies ist für den ”Wearable Computer“ keine Herausforderung.

Viel rechenintensiver ist es hingegen Benutzern mit Sehstörungen, das Videomaterial in Echtzeit so wiederzugeben, dass sie z.B. keine Brille mehr benötigen. Hierzu war zum Zeitpunkt der Studie die tragbare Hardware noch nicht in der Lage. Es ist denkbar, dass mit steigender Leistungsfähigkeit von Prozessoren mit geringem Strombedarf, diese Funktionen auch im System gemacht werden. Natürlich ist es auch weiterhin denkbar, die Videodaten mittels Funk an ein leistungsstärkeren Rechner zu senden, dort zu verändern und dann wieder zurück in das Heads-Up-Display einzuspielen.

4. Einsatzgebiete

Neben den bislang genannten vorstellbaren Einsatzgebieten, gibt es heute durchaus schon Bereiche in denen solche Systeme eingesetzt werden beziehungsweise in naher Zukunft eingesetzt werden und deren Einsatzmöglichkeiten momentan untersucht werden. Aus persönlicher Erfahrung kann ich aus der europäischen Raumfahrt berichten, hier wird versucht mittels solch eines ”Wearable Computers“ den Wissenschaftlern und Astronauten die Arbeit auf der Internationalen Raumstation in Zukunft zu erleichtern. Es sollen neben Wartungsanweisungen, die bislang neben Platz auch viel Schulungs- und Lernaufwand benötigen, auch die Experimente direkt im Blickfeld des Wissenschaftlers eingeblendet werden, so dass diese nur noch die eingeblendeten Schritte nachmachen müssen.

Ein selbes Szenario ist auch im Bereich der Luftfahrt angedacht. Hier wird aktuell an Heads-Up-Displays für die Wartungsmannschaften gedacht, die nun auch live bei Reparaturen und Wartungen die korrekten Abläufe vorgeführt bekommen. Dies soll unter anderem helfen Wartungsfehler zu vermeiden und die Arbeiter entlasten. Ebenso soll es in diesem Bereich Einzug in das Cockpit halten und dem Piloten beim Blick aus dem Cockpit andere Flugzeuge besser kenntlich darstellen. Informationen über die Positionen werden ja bislang mittels des Kollisionswarnsystems TCAS ausgetauscht. Auch soll es möglich sein den Flugweg grafisch einzublenden, so dass bei schlechtem Wetter der Pilot dennoch ”sieht“. Hier können neben der Route auch Gebirge und andere Hindernisse eingeblendet werden. Natürlich ist es bislang schon möglich trotz Nebel zu fliegen, aber hier würde diese neue Art der Darstellung den Piloten diese Informationen deutlich einfacher und natürlicher darstellen. Hier forscht unter anderem die Luft- und Raumfahrt-Fakultät der TU München.

Des Weiteren hat der Gedanke des tragbaren Computers, welcher passende gerade benötigte Informationen ins Sichtfeld des Benutzers bringt, auch den Weg ins Militärische geschafft. Die Einsatzszenarien sind hier beliebig, von erweiterter Nachtsicht, bis hin zu weitreichenden Informationen für Bodentruppen ist hier alles denkbar. Jedoch kommt man hier momentan noch zu schnell an die Grenzen der Leistungsfähigkeit in Bezug auf Akkulaufzeit und Robustheit. Mit Sicherheit wird jedoch auch in diesem Sektor weiter entwickelt.

Am MIT wird auch weiter versucht den Benutzer mehr in das System zu integrieren. So soll das System mittels Biosensoren, den Gefühlszustand des Benutzers aufnehmen. So kann beispielsweise der Stressfaktor mit Einfluss auf das System haben. In Verbindung mit der Lernfähigkeit des Systems kann z.B. dem Nutzer zu seinem aktuellen Stresslevel passende Musik angeboten werden. Andere Vitalfunktionen könnten hier auch miteinbezogen werden, so dass das System z.B. bei Überbelastung warnt oder gar Hilfe holt.

5. Zusammenfassung

Die Idee des allzeit präsenten intelligenten Systems, dass dem Benutzer hilft den Alltag bestmöglich zu bewältigen, ist ohne Frage eine gute. Die inzwischen unterschiedlichen Bereiche, die sich mit diesem Thema auseinander setzen, zeigen, dass es in Zukunft immer mehr ”Wearable Computing“-Geräte geben wird. Der Weg hin zum persönlichen digitalen ”Butler“ für jedermann wird wohl noch etwas auf sich warten lassen. Zudem sind noch einige Fragen zu klären. Die Echtzeitanalyse von Videomaterial, welches die Unabhängigkeit von örtlich bezogenen Infrarot-Positionierungssystemen bedeutet. Auch besteht die Gefahr der Überfrachtung des Blickfeldes des Benutzers und des Benutzers selbst mit Informationen. Hier gilt es sehr genau den angebotenen Inhalt einzuschränken um eine gute Nutzbarkeit zu gewährleisten. Und natürlich muss man den Einsatz solch eines Systems immer mit dem Nutzen vergleichen. Es macht wenig bis gar keinen Sinn solch ein aufwendiges System zu entwickeln um einem Techniker den Austausch einer Druckerpatrone grafisch aufbereitet im Heads-Up-Display darzustellen. Diesen Handgriff hat der Techniker spätestens nach einem Mal verstanden.

Quelle:

  • Thad Starner, Steve Mann, Bradley Rhodes, Jeffrey Levine, Jennifer Healey, Dana Kirsch, Roz Picard, and Alex Pentland, ”Augmented Reality Through Wearable Computing“, Massachusetts Institute of Technology, Cambridge, 1997
Nach oben
Impressum – Datenschutz – Kontakt  |  Letzte Änderung am 18.04.2007 von Richard Atterer (rev 1878)