Zurück zur Übersicht

Thema 1: Embodied Interaction

Martin Reichenbach

Einleitung

Hauptziel von Embodied Interaction ist die Verlagerung der Mensch-Maschine Interaktion vom Bildschirm auf Objekte der realen Welt. Ziel ist es, eine einfache Schnittstelle zum Computer zu schaffen, welche eine intuitive Bedienbarkeit von Systemen und Programmen ermöglicht. Die Verwendung von Befehlen auf herkömmlicher Basis entfällt - daher nennt man diese Schnittstelle auch "Embodied" oder "Noncommand User Interface".

Entwicklung von Schnittstellen

In der heutigen Zeit spricht man oft von verschiedenen Generationen in der Entwicklungsabfolge von Computern. Die von uns verwendete Klasse von Systemen ordnet man dabei der 4. Generation zu. Dabei ist die Hauptschnittstelle zum Rechner die graphische Oberfläche, welche auf dem Bildschirm erscheint und Rückmeldungen zu getätigten Aktionen liefert. Um Interaktionen zu vereinfachen, existieren dabei unter anderem Fenster, Icons und Menüs. Mit Zeigegeräten wie Maus oder Trackball kann man auch ohne Tastatureingaben Befehle anweisen. Bei professionellen Anwendungen herrschen allerdings häufig noch so genannte Terminals vor, welche per Tastatureingaben bedient werden.

Die als 5te Generation definierte Klasse von Systemen lässt diese Technologie weit hinter sich und verlagert die Interaktion in die physische bzw. metaphysische Welt. Beispiele dafür lassen sich schon heute in Computern finden. Dazu gehören Spracheingabe sowie die Eingabe per Stift und Gesten. Darüber hinaus existieren viele Versuche, welche sich mit Virtual Reality beschäftigen und dem Benutzer eine "intelligente" Maschine gegenüberstellen. Um eine instinktive Handhabbarkeit von Systemen zu ermöglichen, muss man allerdings von den vorherrschenden Gewohnheiten abkommen und maßgeschneiderte Schnittstellen für jegliche Aufgaben schaffen.

Zukünftigte Mensch-Maschine Schnittstellen verlassen den objekt-orientierten Ansatz und sind aufgabenorientiert angelegt. Die Eingabe soll direkter Erfolgen. Um dies zu erreichen, werden beispielsweise auf Basis von Gesten angelegte Systeme verwendet oder die Eingabemöglichkeit mit Stiften ermöglicht. In diesem Zusammenhang wird darauf wert gelegt, dass die Interaktion mithilfe von Fähigkeiten erfolgt, welche nicht durch mühsames Training erlernt werden sollen, sondern durch tägliche genutzte Befähigungen bereits vorhanden sind.

Entwicklung von Embodied Interaction

Vorläufer zur heute als "Embodied Interaction" bezeichneten Disziplin sind in den Gebieten des "Social Computing" (deutsch: soziale Rechnertechnik) sowie des "Tangible Computing" (deutsch: berührbare Rechnertechnik) zu finden.

Beim "Social Computing" wird versucht, soziologische Erkenntnisse bei der Schaffung neuer Mensch-Maschine-Schnittstellen einzubeziehen. Dabei werden sowohl die sozialen Fähigkeiten als auch die soziale Umwelt des Nutzers in die Kreation von Systems einbezogen. An dieser Stelle wird angenommen, dass der Anwender neben den steten Interaktionen mit dem System in ein feingliederiges Netzwerk von Beziehungen und Aktivitäten eingebunden ist, welche Reaktionen beeinflussen und entscheidend ändern können.

Das "Tangible Computing" entstand aus einem Projekt des MIT Media Lab unter Hiroshi Ishii. Das Projekt startete Mitte der neunziger Jahre und befasst sich mit der Kreation von physischen Modellen, welche eine Überlagerung von virtuellen Informationen mit der Realität in Echtzeit beschreiben. Hier wird versucht, eine Ausnutzung körperlicher und taktiler Sinne zu erreichen. Computer sind hier als Werkzeuge zur Erledigung von Aufgaben angesehen. Als Basis dient dabei das so genannte "Ubiquiatous Computing" (deutsch: allgegenwärtige Rechnertechnik).

Diese von Marc Weiser 1989 formulierte Disziplin beschäftigt sich mit der Frage, warum man nicht vom Konzept des Desktop-Computers abweichen und anstelle dessen den Fokus auf die Einbettung von Rechnertechnik in alltägliche Gegenstände wie Stifte, Türen oder legen sollte. Dabei gibt die Tatsache Ausschlag, dass Rechengeschwindigkeit und Speicherkapazität aufgrund kurzer Entwicklungszeiten sehr schnell anwächst und somit auch die Kosten auf ein geringes Maß schrumpfen. Darüber hinaus verkleinern sich natürlich auch die Bauelemente und können daher in fast allen Alltagsgegenständen eingesetzt werden. Folge davon ist die fortlaufende Vernetzung von Haushalts- und Gebrauchsgegenständen.

Beide Forschungsgebiete - das Social sowie Tangible Computing - versuchen Probleme unter Nutzung menschlicher Sinne und Befähigungen zu erreichen. Dabei sind die Sinne zwar verschieden, aber die Idee des "Embodiment" wird in beiden Fällen konsequent verfolgt.

Embodiment

"Embodiment" meint nicht nur die physische Verkörperung von Objekten sondern bezieht auch andere Aspekte der realen Welt wie Sprache und soziale Faktoren ein. Die Idee des Embodiment findet sich als Mittelpunkt in der Lehre von der Phänomenologie wieder. Dieser Zweig der Philosophie wurde von Edmund Husserl begründet und basiert auf den Phänomenen menschlicher Erfahrung. Viele Wissenschaften wie die Geometrie werden von ihrer ursprünglichen Realität entfernt betrachtet. Die Verbindung von Formen mit ihrem Auftreten in der Natur wurde gänzlich vernachlässigt. Daher entsprach es der Auffassung Husserls, die Rekonstruktion von wissenschaftlichen und mathematischen Zusammenhängen mithilfe der von Menschen erfahrenen Phänomene in der Natur zu vollführen. Martin Heidegger, ein Student Husserls, vervollkommnete dessen Entwicklungen. Im Gegensatz zu Husserl wich er von dem Denken ab, dass alltägliche Erfahrungen im Kopf geschehen. Für ihn fanden diese in der Welt statt.

Als wichtiger Fakt dabei trat der Unterschied Heidegger zwischen "ready-to-hand" (deutsch: griffbereit) und "present-at-hand" (deutsch: in der Hand) auf. Heidegger gibt einem realen Objekt den Zustand "ready-to-hand", wenn es dem Benutzer die Möglichkeit gibt, durch ebendieses Objekt andere Aktionen anzustoßen (Beispiel: die PC-Maus als reales Objekt, mit deren Hilfe der Versuch erfolgt, einen Button zu klicken). Darüber hinaus kann dieses Objekt in den Zustand "present-at-hand" gelangen, wenn der Nutzer aufgrund eines äußeren Einflusses (bei der Computer-Maus beispielsweise das Ende des Mauspads) sich des Objektes gewahr wird und das ursprüngliche Ziel (hier: Klicken des Buttons) nicht mehr im Fokus des Nutzers liegt. Just in diesem Moment wird das Objekt als Einheit der realen Welt existent bzw. "Embodied".

Später erfolge eine dreifache Unterscheidung in der Bedeutung von "Embodiment" durch Dreyfus:

- Physische Verkörperung des Menschlichen Wesens

- Menge unserer körperlichen Fähigkeiten und Erfahrungen

- Kulturelle Werte und Befähigungen

Diese drei Bedeutungen konditionieren die Aktionen des Individuums, sowohl im eigenen Verständnis vom phänomenologischen Körper und im Verständnis durch andere.

Beispiele für Embodiment

Virtual Reality

Die Welt der Virtual Reality stellt das ultimative Beispiel für Noncommand Interaction dar. Mithilfe von dreidimensionalen Darstellungen wird der Anwender in eine der realen Welt ähnliche Simulation versetzt, wobei eine Interaktion unter Anwendung gewohnter Bewegungen und Gesten erfolgt.

Eye tracking

Um Zeigegeräte wie die Maus zu ersetzen, wurden so genannte Eye- Tracker entwickelt, welche die Blicke des Nutzers "liest" und die aktuellen Koordinaten auf dem Bildschirm bestimmt. Während früher spezielle Brillen dazu notwendig waren, lässt sich die Verfolgung des menschlichen Blickes heutzutage auch mit Kameras ausführen. Es fällt allerdings schwer, eine direkte Verbindung zwischen Augenbewegung des Nutzers und dessen Absichten zu erkennen, da sich das menschliche Auge in steter Bewegung befindet. Somit folgt als weiter Aufgabe die richtige Interpretation der Blickfolge. Da diese Auswertung unter Berücksichtigung der menschlichen Denkstrukturen erfolgen muss, lässt sich der komplette Umstieg auf Eye tracking im Moment wohl leider nicht bewerkstelligen.

Ein Ausblick

Wie wir alle wissen, kann der Computer sehr viele menschliche Aufgaben erleichtern. Allerdings muss gesagt werden, dass die technischen Möglichkeiten noch längst nicht ausgeschöpft sind. Die Hauptaufgabe des Menschen im Umgang mit Rechnern bezieht sich heutzutage auf das Aufrufen von Befehlen sowie die Überwachung und Kontrolle der Abarbeitung. Ein wichtiges Ziel von "Embodied Interaction" ist die eigenständige Interpretation von Nutzeraktionen durch den Computer und eine adäquate Reaktion desselben. Wie schon beim Eye Tracking erwähnt, sollte es Möglichkeiten geben, um den Nutzer von der Schnittstellenkontrolle zu befreien. Stattdessen sollten Objekte wie Maus und Tastatur gänzlich verschwinden und durch versteckte bzw. nicht sichtbare Eingabegeräte ersetzt werden. Um eine allgegenwärtige Verarbeitung von Anwenderaufgaben zu ermöglichen, können Mensch-Maschine-Schnittstellen direkt in dessen Umwelt eingebettet werden. Räume und ganze Gebäude werden damit zu einer großen Schnittstelle.

Bibliographie:

Nielsen, Jakob. Noncommand User Interfaces. Communications of the ACM 36, 4 (April 1993), 83-99 [reference 95]. 1993.

Dourish, P. Where the Action Is: Foundations of Embodied Interaction. MIT Press, Cambridge, Mass., 2002

Weiser, M. The Computer for the 21st Century. Scientific American, 265(3), 94-104. (1991).

Mattern, Friedemann. Ubiquious Computing. 2004.