Institut für Informatik | Sitemap | LMU-Portal
English
  • Startseite
  • Studieninteressierte
  • Studierende
  • Lehrveranstaltungen
    • Archiv
    • WS 2006/2007
      • AR
      • DM
      • FOTO
      • HS
      • IV3D
      • MMI1
        • Essays
      • MMN
      • OS
      • PEM
      • PMG
  • Forschung
  • Personen
  • Kontakt
  • Besucher
  • Jobs
  • FAQ
  • Intern

Brain-Computer-Interfaces — Ein Überblick

Bernhard Frauendienst, 09.02.2007

Einleitung

Nimmt man es genau, so benötigt der Mensch seit jeher eine Schnittstelle zum Gehirn, um mit Computern zu interagieren. Bis heute funktioniert dies nahezu ausschließlich über Ein- und Ausgabegeräte, die auf die Sinne und Motorik des Menschen abgestimmt sind. Primäres Ziel der Brain-Computer Interface (BCI) Technologie ist es jedoch, diesen Umweg über peripheres Nervensystem und Muskeln zu umgehen, und einen direkten Informationsaustausch zwischen Gehirn und Maschinen herzustellen [1]. Dies mag futuristisch anmuten, es wurden aber bereits bedeutende Erfolge auf dem Gebiet errungen, und nicht umsonst werden BCIs als ein äußerst viel versprechendes Forschungsgebiet angesehen. Im Folgenden soll ein kurzer Überblick über die Entstehungsgeschichte gegeben, sowie mögliche Anwendungsgebiete, grundlegende technische Realisierungen und etwaige ethische Probleme kurz erläutert werden.

Kurze Entstehungsgeschichte

Der Grundstein für Gehirn-Computer-Schnittstellen wurde lange vor dem Computer-Zeitalter gelegt, als der deutsche Neurologe und Psychiater Hans Berger 1929 das „Elektrenkephalogramm des Menschen“ vorstellte [2]. Erstmals konnten die „Gehirnströme“ eines Menschen gemessen und aufgezeichnet werden. Die Verknüpfung mit dem Computer erfolgte freilich erst viel später, in den späten 70er Jahren. Auch das Militär meldete Interesse an, um die Leistungsfähigkeit seiner Soldaten mit neuen Technologien zu steigern [1]. Bahnbrechende Erfolge landeten zwei Teams in 1999. Wissenschaftler aus Philadelphia zeigten, dass ein Roboter-Arm allein durch kortikale Neuronen kontrolliert werden konnte: Laborratten konnten sich über einen Hebel selbst mit Wasser versorgen, wobei während des Drückens bestimmte Gehirnaktivitäten gemessen wurden. Als der Auslöser des Belohnungs-Systems so umgestellt wurde, dass er auf eben diese Aktivitäts-Muster reagierte, konnten die Ratten es immer noch aktivieren, und hörten schließlich sogar auf, zusätzlich den Hebel manuell zu drücken [3].

Im selben Jahr gelang es Forschern in Berkeley aufgezeichnete Gehirnströme zu decodieren: einer Katze wurden mehrere Videos gezeigt, hauptsächlich Naturszenen. Aus der gemessenen Gehirnaktivität wurden anhand mehrerer Algorithmen Bilder erzeugt, die zwar nur von niedriger Auflösung und Qualität waren, die aber eindeutigen Bezug zu den vorher gezeigten aufwiesen. Insbesondere bewegte Objekte waren auf den konstruierten Bildern erkennbar [4].

Mit leistungsfähigerer Hardware und sinkenden Preisen wurde es schließlich für eine große Zahl an Wissenschaftlern möglich, die gemessenen Daten in Echtzeit auszuwerten, und somit viel versprechende Forschung auf dem Bereich der Neurotechnologie zu betreiben [1].

Anwendungsgebiete für BCIs

Nahezu alle Schlüssel-Anwendungen für BCIs (auch Brain-Machine-Interface; BMI) liegen im Bereich der Medizin, in der Rehabilitierung von behinderten Menschen. Eine wichtige Zielgruppe sind Patienten die unter dem so genannten Locked-in-Syndrom leiden — bei vollem Bewusstsein sind sie vollständig gelähmt und sprachunfähig; meist können sie sich allenfalls durch vertikale Augenbewegungen verständigen, aber auch diese Motorik ist in manchen Fällen eingeschränkt oder nicht vorhanden. Für diese Menschen sind BCIs oftmals die einzige Möglichkeit, mit ihrer Umwelt zu kommunizieren [5]. Die bisherigen Entwicklungen reichen dabei von einfachen Ja/Nein-Antworten bis hin zu virtuellen Keyboards, mit denen die Benutzer selbst Texte erstellen oder aus bestehenden Phrasen auswählen können. Auch hier werden Entscheidungen meist auf binäre oder tertiäre reduziert, indem die Tasten über eine in Baumform angeordnete Entscheidungsfolge ausgewählt werden. Meist bieten die Systeme auch eine Möglichkeit zur Fehlerkorrektur: beispielsweise werden Eingaben erst nach einer kurzen Verzögerung erkannt; konzentriert sich der Nutzer während dieser Zeit stark auf ein anderes Ziel, so wird die Eingabe verworfen [6]. Auch wenn die Geschwindigkeit dabei mit etwa 3 Buchstaben pro Minute noch sehr gering ist, stellt dies für die Benutzer eine neue Fähigkeit dar, sich mitzuteilen [5,6]. In Kombination mit einem prädiktiven Eingabesystem, das etwa bereits nach zwei Buchstaben anhand eines Lexikons ein Wort aus dem Vokabular des Anwenders auswählt, kann jedoch der Durchsatz auf denkbare 2 Wörter pro Minute erhöht werden [7].

Darüber hinaus kann Bewegungseingeschränkten auch der Zugang zu modernen Informationstechnologien verschafft werden, indem die Benutzer über Gehirnaktivität einen Mauscursor auf dem Bildschirm steuern [7], oder einfache Befehle eingeben. So können Nutzer beispielsweise auch simple Spiele spielen, etwa PacMan, das sich nur mit zwei Kommandos steuern lässt [6]. Oft bedarf es speziell entwickelter oder angepasster Applikationen, etwa einem modifizierten Webbrowser, der die wichtigsten Befehle als große Schaltflächen zur Verfügung stellt und Links serialisiert zur Auswahl stellt [5].

Auch Personen, die aufgrund erheblicher Rückenmarkschäden stark motorisch beinträchtigt sind kann mit BCIs in Zukunft immer besser geholfen werden. So können über kortikale Neuronen externe Extremitäten wie etwa Roboter-Arme [3] und Neuroprothesen bewegt werden. Je nach verwendetem Interface ist auch die Steuerung eines Rollstuhls möglich. Erweitert man diese Anwendung mit kontextsensitiven Eigenschaften, kann solchen Menschen ein gewisses Maß an Kontrolle über ihre Aktivitäten und Kommunikation gegeben werden. Der am Georgia State University BrainLab sich in Entwicklung befindliche „Aware ’Chair“ beispielsweise integriert mehrere Prognose-Ebenen um dem Benutzer eine möglichst kleine aber dennoch ausreichende Auswahl an Befehlen zur Verfügung zu stellen, stets angepasst an aktuellen Gegebenheiten [5].

Technische Realisierungen und Probleme

Da Brain-Computer-Interfaces Informationen ohne den normalen „Umweg“ über Nerven und Muskeln verwerten sollen, wird eine direkte Verbindung zum Gehirn benötigt. Ein wesentliches Werkzeug ist dabei die bereits erwähnte Elektroenzephalografie (EEG), die von Hans Berger 1924 entdeckt wurde [2]. Dabei werden in der Regel mit Elektroden, die an die Kopfhaut angelegt werden, Spannungsdifferenzen zwischen verschiedenen Teilen des Gehirns gemessenen und aufgezeichnet; die Verteilung der Elektroden verläuft nach einem bestimmten System, häufig dem so genannten 10-20-System. Bei dieser Methode der Messung spricht man von „nicht-invasiv“ (non-evasive), während solche, die einen direkten Eingriff in das Gehirn erfordern — etwa wenn die Elektroden direkt an die Hirnrinde angelegt werden, oder Implantate verwendet werden — als „invasiv“ (invasive) bezeichnet werden [7,8]. Da die gemessenen Spannungsschwankungen im µV-Bereich liegen, wird ein Messverstärker benötigt; zusätzlich müssen die extrahierten Informationen dekodiert und in Steuerungsbefehle umgewandelt werden, wobei die gemessenen Daten nach verschiedenen Mustern interpretiert werden. So werden in der Frequenzdomäne gängigerweise μ- und β-Rhythmen aufgenommen, während in der Zeitdomäne unter anderen so genannte „Slow Cortical Potentials“ und P300 Potentials wahrgenommen werden [1]. Hier gilt es zu unterscheiden zwischen ereigniskorrelierten Potentialen, die beim Benutzer unbewusst durch einen Sinnesreiz oder kognitive Prozesse ausgelöst werden, und spontanen Potentialen, deren Generierung keiner derartigen Stimulation bedarf [7].

Zu beachten ist dabei, dass aktuelle EEG-Systeme nicht einfach die Intentionen des Benutzers „verstehen“ können, sondern dieser ein intensives Training durchlaufen muss, um genau die „Befehle“ zu produzieren, die die gewünschten Reaktionen erzeugen. Das Gehirn lernt das EEG genauso zu kontrollieren wie dies normalerweise mit Muskeln der Fall ist [1,7].

Neben dem weitläufig benutzten EEG werden auch noch andere Systeme immer häufiger verwendet. Zu nennen sind dabei unter anderen die Magnetoenzephalographie (MEG), funktionelle Magnetresonanztomografie (functional magnetic resonance imaging; fMRI) und die Positronen-Emissions-Tomographie (PET) [1,8]. Zwar verfügen gerade funktionelle imaging-Techniken über eine hohe räumliche Auflösung, bringen aber funktionsbedingt lange Antwortzeiten mit sich [8]. Zudem sind diese Methoden noch technisch sehr aufwändig und teuer; „Furthermore, PET, fMRI, and optical imaging, which depend on blood flow, have long time constants and thus are less amenable to rapid communication.“ [7]

Obwohl in den letzten Jahren große Fortschritte gemacht wurden, hat die BCI-Technologie immer noch mit einer Reihe von Schwierigkeiten zu kämpfen. Gerade nicht-invasive Methoden wie mit Elektroden auf der Kopfhaut abgemessenes EEG bringen bis dato eine nur äußerst geringe Bandbreite mit sich: Übertragungsraten von maximal 25 bits/min reichen bei weitem nicht aus, um etwa eine genaue Steuerung eines Cursors oder gar einer dreidimensionalen Prothese oder eines Rollstuhls zu ermöglichen [1,5]. Dies wäre allenfalls bei äußerst geringen Geschwindigkeiten denkbar [7].

Ein weiteres Manko ist die fehlende Autonomität der Systeme: Benutzer sind stets darauf angewiesen, weitgehend von Pflegern betreut zu werden, und können das System nicht oder nur schwer selbst kontrollieren [5]. Zusätzliche Systembefehle wären zwar denkbar, würden aber die ohnehin bereits knappe Nutz-Bandbreite weiter einschränken.

Zudem ist die lange Verarbeitungskette vom Gehirn bis zur ausgeführten Reaktion recht fehleranfällig [5]. Zum einen sind die gesendeten Signale sehr unbeständig, andererseits können auch bei der Interpretation bzw. Prognose Fehler auftreten. Zwar bieten gängige BCIs dem Benutzer die Möglichkeit, Errata zu korrigieren (s.o.), dies geht aber natürlich wiederum zu Lasten des Durchsatzes [6].

Ethische Problematik

Neben technischen Problemen bringt die BCI-Technologie auch ethische mit sich. Da wie schon erwähnt die Kontrolle momentane BCIs als neue „Gehirnfunktion“ erlernt werden muss, wird also „die neuronale Aktivität des Patienten [verändert]“ [9]. Diese Veränderung könnte sich aber auch auf andere Teile des Gehirns erstrecken, und dessen Funktion wenigstens teilweise beeinflussen, weswegen derartige Auswirkungen stets zu untersuchen sind. Wird eine Veränderung festgestellt, muss das Ausmaß erörtert werden und gegen die Erhaltung der psychologischen Identität des Patienten abgewogen werden. Dabei kann aber ein deutlicher Nutzen für den Anwender eine Veränderung der Identität durchaus rechtfertigen [9].

Weiterhin stellt sich die Frage, wer bei Unfällen, die auf einer Fehlprognose des Decoders bzw. des Auswertungsalgorithmus' beruhen, zu haften hat. Sieht man den Benutzer und die Neuroprothese als eine funktionale Einheit, so liegt die Verantwortung beim Nutzer. Andernfalls könnte der „Hersteller der Prothese oder [der] Programmierer des nur bedingt zuverlässigen Algorithmus“ [9] zur Rechenschaft gezogen werden. Aus diesem Grund schlägt Clausen hier eine generelle Versicherungspflicht für BCI-Nutzer vor [9].

Ein weiteres Problem ergibt sich bei der Zustimmung des Patienten zur Durchführung von Experimenten: da die Mitglieder der wichtigsten Zielgruppe meist keine Möglichkeit zur Kommunikation haben, welche ihnen allerdings mit BCIs gegeben werden könnte, muss unter Umständen davon ausgegangen werden, dass zumindest eine Durchführung mit nicht-invasiven Techniken nur im Interesse des Benutzers sein kann; allenfalls kann nachträglich über bisherige und weitere Eingriffe gesprochen werden [9].

Ausblick

Offensichtlich handelt es sich bei Brain-Computer-Interfaces um eine äußerst zukunftsweisende Technologie, was allein durch die rapide Entwicklung ersichtlich wird. Insbesondere im Bereich der Rehabilitierung von Locked-in-Syndrom- und ALS-Patienten lässt sich eine weite Verbreitung erwarten. Während derzeit noch solchen Menschen „nur“ eine äußerst eingeschränkte Möglichkeit der Kommunikation zur Verfügung gestellt wird, lässt sich mit neuen Erkenntnissen auf einen zeitnahen sinnvollen Einsatz von Neuroprothesen hoffen. Als Langzeitziel ist auch eine Reanimation der körpereigenen Extremitäten denkbar, etwa durch Überbrückung lädierten Gewebes mit BCI-Technologie.

Um zu verdeutlichen, wie aktiv die Forschung auf diesem Gebiet ist, sei noch auf eine aktuelle Errungenschaft hinzuweisen: dem Wissenschaftler-Team um John-Dylan Haynes am Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig gelang es, mittels fMRT und software-gestützter Mustererkennung grundlegende Absichten der Probanden vorherzusagen. Die Teilnehmer bekamen die Aufgabe gestellt, sich zwischen der Addition und Subtraktion zweier Zahlen, die später auf einem Bildschirm angezeigt wurden, zu entscheiden. Mit einer Wahrscheinlichkeit von immerhin 70% konnten die Wissenschaftler voraussagen, für welche Rechenart sich die Probanden entscheiden würden [10]. Durch die Studie erlangten die Forscher neue Erkenntnisse darüber, wie Absichten und Gedanken im Gehirn gespeichert werden. So gelang es den Forschern, einen weiteren Schritt zur ständigen Verbesserung von BCIs beizutragen.

Literaturverzeichnis

  1. Jonathan R.Wolpaw, Niels Birbaumer,William J. Heetderks, Dennis J. McFarland, P. Hunter Peckham, Gerwin Schalk, Emanuel Donchin, Louis A. Quatrano, Charles J. Robinson, and Theresa M. Vaughan. „Brain-Computer Interface Technology: A Review of the First International Meeting“. In: IEEE Transactions on Rehabilitation Engineering, 8:2, 2000, 164–173

  2. Hans Berger. „Über das Elektrenkephalogramm des Menschen“. In: European Archives of Psychiatry and Clinical Neuroscience, 87:1, 1929, 527–570

  3. John K. Chapin, Karen A. Moxon, Ronald S. Markowitz and Miguel A. L. Nicolelis. „Real-time control of a robot arm using simultaneously recorded neurons in the motor cortex.“ In: nature neuroscience, 2:7, 1999, 664–670

  4. Garrett B. Stanley, Fei F. Li, and Yang Dan. „Reconstruction of Natural Scenes from Ensemble Responses in the Lateral Geniculate Nucleus.“ In: The Journal of Neuroscience, 1999, 19:18, 8036–8042

  5. Melody M. Moore. „Real-world applications for brain-computer interface technology.“ In: IEEE Transactions on Neural Systems and Rehabilitation, 11:2, 2003, 162–165

  6. José del R. Millán. „Adaptive Brain Interfaces.“ In: Communications of the ACM, 46:3, 2003, 74–80

  7. Jonathan R. Wolpaw, Niels Birbaumer, Dennis J. McFarland, Gert Pfurtscheller, Theresa M. Vaughan. „Brain–computer interfaces for communication and control.“ In: Clinical Neurophysiology, 113:6, 2002, 767–791

  8. Mikhail A. Lebedev and Miguel A.L. Nicolelis. „Brain–machine interfaces:past, present and future.“ In: TRENDS in Neurosciences, 29:9, 2006, 536–546

  9. Jens Clausen. „Ethische Aspekte von Gehirn-Computer-Schnittstellen in motorischen Neuroprothesen.“ In: International Review of Information Ethics, 5, 2006, 25–32

  10. John-Dylan Haynes, Katsuyuki Sakai, Geraint Rees, Sam Gilbert, Chris Frith, and Richard E. Passingham. Reading Hidden Intentions in the Human Brain. In: Current Biology, 17:4, 2007, (advance online publication: 08.02.2007)

Nach oben
Impressum – Datenschutz – Kontakt  |  Letzte Änderung am 18.04.2007 von Richard Atterer (rev 1915)