Interaction models and design methods in ubiquitous computing

von Lenz Belzner

Zum Begriff 'Ubiquitous Computing'

'Ubiquitous Computing' ist ein Begriff für das ständig fortschreitende Verschmelzen von Alltagsaufgaben und -handlungen und deren Unterstützung bzw. Bewältigung durch Computer. Dabei versteht man in diesem Zusammenhang unter „Computer“ nicht ausschliesslich den Personal Computer, sondern jede Art von prozessorgesteuertem Ablauf. So sind zum Beispiel das programmierbare Thermostat der Heizung oder die moderne Kaffemaschine auch Computer in diesem Sinne.

Ziel des 'Ubiquitous Computing' ist es, all diese Maschinen aus dem Aufmerksamkeitsfeld des Menschen herauszurücken, und sie, soweit es sinnvoll ist, miteinander zu vernetzen. Dabei sollen Aufgaben auf die verschiedenen Systeme verteilt und die Kommunikation untereinander optimiert werden. Die Maschinen sollen ihr unterstützendes Werk im Hintergrund verrichten, und nur in besonderen Fällen die aktive Eingabe eines Menschen erfordern.

Designaspekte im 'Ubiquitous Computing'

Beim 'Ubiquitous Computing' ist es dem Benutzer möglich, über verschiedene Geräte die gleichen oder aber unterschiedliche Aufgaben zu verteilen und deren Erledigung zu steuern. Um den Anwender dabei zu unterstützen, sollten die Schnittstellen der Geräte Gemeinsamkeiten aufweisen und klar darstellen. Deshalb verfolgt man beim Design eines solchen Systems den Ansatz, zunächst die Parallelen der unterschiedlichen Geräte und Anwendungsfälle zu analysieren, und dann eine verbindende Schicht, die die Unterschiede behandelt, darauf aufzusetzen. Das heißt, ein wichtiger Schritt zur erfolgreichen Modellierung eines ubiquitären Systems ist die klare Trennung von Unterschieden und Gemeinsamkeiten der einzelnen Benutzerschnittstellen.

Um Gemeinsamkeiten zu entdecken, sollte man den Blick auf die Aufgaben lenken, die der Benutzer mit Hilfe des Systems angehen wird: Die Komplexität sowie dynamische Aspekte der Anwendung wird dann durch Aktionen und Operationen festgelegt, statt durch plattformabhängige Spezifika. Weitere Betrachtungen von Kontext der Verwendung des Systems, Häufigkeit und Wichtigkeit der Benutzung, Navigation durch das System und Layout desselben stellen weitere mögliche Betrachtungsansätze dar. Durch diese Herangehensweise an den Entwurf eines ubiquitären Systems werden die Unterschiede der einzelnen Schnittstellen auf die rein technische ebene eingeschränkt und dadurch leichter zu bewältigen. Vor allem wird die allgemeine Lösung gemeinsamer Probleme forciert.

Mensch-Maschine-Interaktion

Die Kommunikationskanäle zum Austausch von Informationen lassen sich bei der Mensch-Maschine-Interaktion wie folgt klassifizieren: Der Mensch ist über seine Sinne in der Lage, Information aufzunehmen, sie stellen also seine Inputmedien dar. Mittels Sprache und Gestik ist er dazu imstande, Aussagen zu machen, bzw. Information zu versenden: Diese beiden Fähigkeiten sind die Outputmedien des Menschen.

Auf Seiten der Maschine sind klassische Inputmedien Maus und Tastatur. Sie bieten dem Benutzer eines Computers die Möglichkeit, seinen Output, nämlich die Sprache (bei der Tastatur) bzw. die Gestik (bei der Maus), in eine dem Computer verständliche Form zu transformieren. Sie stellen also im engsten Sinne eine Schnittstelle dar. Allerdings sind hier auch neuartige Entwicklungen zu verzeichnen: So ist es heute mithilfe von Kameras und Mikrofonen auch möglich, gesprochene Sprache und dreidimensionale Gesten in Signale umzuwandeln, die ein Computer verarbeiten kann. Zukunftsmusik, jedoch durchaus realistisch, sind Eingabemöglichkeiten mittels Gedanken oder Gefühlen. Output erfolgt beim Computer hauptsächlich visuell und auditiv, meist mithilfe eines Bildschirms und durch Lautsprecher, in Zukunft sind durchaus auch Ausgabekanäle vorstellbar, die unsere anderen Sinne ansprechen.

Interaktionsaspekte beim 'Ubiquitous Computing'

Die Interaktion beschränkt sich beim 'Ubiquitous Computing' im Gegensatz zum Umgang mit herkömmlichen Computern nicht auf einige wenige Eingabe- und Ausgabegeräte, die räumlich und zeitlich eng begrenzt sind, sondern sind von einer unüberschaubaren Vielfalt und starker Unterschiedlichkeit geprägt. Eingaben können räumlich wie zeitlich stark versetzte Konsequenzen nach sich ziehen, und die Anzahl möglicher Systemzustände ist nahezu unbegrenzt. Diese Umstände bringen völlig neue Herausforderungen an Benutzerschnittstellen mit sich, die die Interaktion von Mensch und Maschine einfach und doch praktisch und differenziert ermöglichen sollen.

Nicht nur die Anzahl und Größe der Geräte, auch ihre Arten verändern sich. Waren die meisten Benutzer von Computern bisher auf Bildschirm, Maus und Tastatur angewiesen, so bieten sich mehr und mehr auch Gestik, Stimme und Gehör des Menschen als Informationskanäle an. Auch in diesem Zusammenhang ändert sich das Verständnis von Interaktion zwischen Mensch und Computer.

Ein wichtiger Aspekt beim 'Ubiquitous Computing' ist die Mobilität und allgegenwärtige Verfügbarkeit der Applikationen. Dabei kann man zwischen voller und eingeschränkter Mobilität unterscheiden. Annähernd voll mobil funktionert heute eigentlich nur GPS, allerdings nur außerhalb von Gebäuden. Ziel von ubiquitären Applikationen kann es sein, Schnitstellen anzubieten, die von überall aus zugänglich sind. Dieser Anspruch bringt neuartige herausforderungen für Entwickler solcher Systeme mit sich.

Desweiteren Unterscheidet man zwischen syntaktischer und semantischer Transparenz einer ubiquitären Benutzerschnittstelle. Ein System ist dann syntaktisch Transparent, wenn es den Anwender eine bestimmte Aufgabe direkt erledigen lässt, ohne sich vorher um die Korrektheit der Umgebung kümmern zu müssen. So sind zum Beispiel das Laden und Speichern von Inhalten keine „direkten“ Aufgaben, wenn eine Anwendung eigentlich das Editieren von Texten ermöglichen soll.

Semantische Transparenz beschreibt den Umstand, dass Applikationen die Absicht der Benutzeraktionen erkennen, und ihm bei der jeweiligen Aufgabe automatisch Unterstützung leisten. Diese Fähigkeit einer Anwendung setzt eine sogenannte „context awareness“ des Programms voraus, das aus dem Zusammenspiel von Systemzustand und Eingabeparametern sinnvolle Teilaufgaben selbstständig ermitteln und ausführen kann. Ein simples Beispiel ist eine sensorgesteuerte Schiebetür, die erkennt, wann sie sich öffnen, und wann sie sich schließen sollte.

Chancen und Risiken

Mit der immer stärkeren Einbettung von Computern aller Art in den Alltag bieten sich dem modernen Menschen immer mehr Möglichkeiten, unterschiedlichste Aufgaben zu automatisieren. Sollten sich Konfiguration, Wartung und Verwendung der „kleinen Helfer“ als unkompliziert und intuitiv erweisen, kann durch diesen Fortschritt viel Zeit für andere Aufgaben gewonnen werden, die eventuell nicht von Computern erledigt werden können oder sollen.

Allerdings sind auch moralische oder ethische Bedenken naheliegend: Kaum ein Endnutzer eines Computers kann wirklich nachvollziehen, was genau in der Maschine vor sich geht. So wäre es z.B. Herstellern ein leichtes, Nutzungsdaten des Verwenders zu sammeln, auch ohne deren Einwilligung. Die heute schon unklare Sachlage im juristischen Bereich, vor allem was die Vernetzung von Computern und deren Verwendung angeht, würde sich wohl weiter verschärfen. Sicherheitsaspekte, die auch jetzt schon ein großes Thema im IT-Bereich darstellen, würden noch mehr an Gewicht gewinnen. Das allerdings darf nicht nur als Nachteil betrachtet werden: So werden durch neue Herausforderungen auch immer neue Lösungen für Probleme erforscht und gefunden.

Quellen:

http://ftp.informatik.rwth-aachen.de/Publications/CEUR-WS/Vol-159/paper1.pdf

http://www.teco.edu/chi2001ws/18_zeitler.pdf

http://www.ubiq.com/hypertext/weiser/SciAmDraft3.html

http://www.medien.ifi.lmu.de/pubdb/publications/pub/schmidt2007percom/schmidt2007percom.pdf