Kaum eine andere Wissenschaft hat jemals so geboomt wie Informatik in den
letzen 15 Jahre.
Die Entwicklung einer neuen Generation von Computern, die in dieser Zeitspanne
mehr als eine Revolution in Punkto Schnelligkeit, Speicherkapazität und Preis
erlebten, ermöglichte überhaupt diese starke Integration der Computer in
unserer Gesellschaft.
Als dann noch das Internet dazukam, entstand eine enorm große Datennetz
weltweit.
Doch mit dieser raschen Entwicklung, wurde auch alles größer und
komplizierter.
Die immer größer werdenden Systeme, der "Datendschungel" im
Internet, verschiedene User Interfaces und überhaupt die
Mensch-Maschine-Interaktion führte dazu, dass man versuchte, diese Systeme für
den User so gut wie möglich zu optimieren.
Da entstand auch die Notwendigkeit, nach Methoden (Heuristiken) zu suchen, die
eine Mensch-Maschine-Interaktion optimieren würden.
"Heuristic evaluation" ist eine Methode zum Testen von
Benutzerfreundlichkeit eines Designs von einem Userinterface.
Ziel dieser Methode ist die Identifizierung von Problemen, die in Zusammenhang
mit eine Userinterface stehen.
Dabei geht man vor, dass man Experten einsetzt, die anhand eines Sets von
Usability-Heuristiken verschiedene Aspekte eines User Interfaces bewerten. (vgl.
http://www.usable.at/usability.htm#heuristische_evaluierung )
Mit anderen Wörtern ist Heuristic evaluation eine leichte, schnelle und billige
technische Methode, um auf Benutzertauglichkeit einer Userinterface zu
evaluieren. (vgl. auch http://www.useit.com/papers/heuristic/
)
Bei einer benutzerfreundlichen Interface Design wird dann auf folgende Faktoren
geachtet:
Konsistenz,
leichte Erholung von Fehlern
Kontrolle durch den User,
Sichtbarkeit des Systemstatus.
Einer der ersten Pionieren, die sich mit diesem Gebiet befasst haben, ist
Jakob Nielsen (Geboren 1957 in Kopenhagen, Dänemark) ein Schriftsteller, Redner
und Berater im Bereich Software- und Webdesign-Usability (Benutzerfreundlichkeit).(vgl.
http://de.wikipedia.org/wiki/Jakob_Nielsen).
Nielsen behauptet, dass heuristic evaluation von Einzelpersonen
nur schlecht und schwierig zu betreiben ist ( vgl.
http://www.useit.com/papers/heuristic/heuristic_evaluation.html ), da man
alleine nie in der Lage ist, alle Fehler und Probleme eines UI
zu finden und beheben.
Wenn aber eine Userinterface von mehreren Experten unter die Lupe genommen wird,
werden dann erfahrungsgemäss auch mehr Probleme herausgefunden.
Eine Userinterface sollte zuerst von mehreren Experten auf die
Benutzertauglichkeit überprüft, bevor sie überhaupt veröffentlicht wird.
Dabei wird das zu evaluierte Interface von jedem Experten unabhängig
ausgewertet und protokolliert.
Danach müssen alle Protokolle angesammelt werden und von einem Experten, der
das ganze managt, ausgewertet.
heuristic evaluation - Vorgehensweise
Die Vorgehensweise der heuristic evaluation beläuft auf mehrere
Stufen.
Als erstes erstellt man einen Prototyp, welcher dann evaluiert wird. Anschließend
muss eine Methode zur Auswertung unser Prototyps gewählt werden. Diese Methode
wird von mehreren Experten durchgeführt. Wichtig ist es dabei, dass die
Experten keinerlei Kontakt miteinander haben.
Gemeint ist es damit, dass die Prüfer, während der Auswertung nicht
miteinander über das Projekt diskutieren sollten, so dass jeder die Eckpunkte
findet, ohne von dem anderen beeinflusst zu werden.
Nach der Auswertung des Prototyps werden die Ergebnisse erarbeitet und in einem
kurzgefassten Bericht ausgegeben.
Aus den Gesamtdaten wird dann ein Fertigbild unseres Prototyps erstellt (oder
zumindest eine Empfehlung).
(vgl. http://www.oclc.org/policies/usability/heuristic/oclc.htm)
Es gibt verschiedene Methoden, die einem Experten bei der Auswertung eines
Prototyps zur Verfügung stehen.
1. Entwicklung einer Menge von Tests, mit denen ein Experte den Versuch
durchführt.
Diese Methode wird auch am meisten eingesetzt.
Die Tests sollten die Eckpunkte bzw. die kritischen Punkte des zu untersuchenden
Objektes überprüfen.
Kritische Punkte sind die Punkte, die erwartungsgemäß am häufigsten genutzt
werden und die Punkte die eventuell Schwierigkeiten darstellen könnten.
2. Ein andere Möglichkeit ist, den Experten die Ziele des Prototyps
vorzulegen und ihnen die Möglichkeit zu geben, selbst die Tests zu entwickeln
und benutzten. Z.B. sollte auf den Unterhaltungsfaktor einer Seite geprüft
werden. Der Experte führt dann eine Reihe von Tests durch, die er selbst
entwickelt hat, um den Unterhaltungsfaktor dieser Seite zu bestimmen.
Diese Methode wäre zwar sehr effektiv, jedoch sehr schwer einzusetzen, da sie
mit hoher Zeitaufwand und Kosten verbunden ist.
Wenn man mehrere Experten hat, die voneinander verschiedene Tests durchführen,
dann ist es sehr schwierig, gemeinsame Indikatoren zu finden und daraus eine
heuristic evaluation zu machen.
3.Der Experte sollte sich das Prototyp öfters in Betracht nehmen.
Wenn eine Seite evaluiert werden sollte, dann muss der Experte
verschiedene Male die Seite besuchen und "benutzen".
Auf diese Art macht er sich mit der Seite vertraut. So können dann
Schwierigkeiten der Seite, oder Unübersichtlichkeit von Informationen, auf
Grund der Erfahrung des Experten naher besser organisiert werden.
Die Anzahl von Experten bei der Evaluierung eines Prototyps ist von großer
Bedeutung. Hier gilt, je mehr Experten, desto mehr Probleme werden entdeckt. Die
Anzahl der Experten ist jedoch mit hoher Kosten verbunden.
Um einen Durchschnitt zu finden hat Jakob Nielsen eine Formel entwickelt, die
die Anzahl der Experten mit der Höhe der Kosten und der Anzahl der gefundenen
Probleme verbindet.
So kann man eine optimale Anzahl der Experten wählen, die eine maximale Anzahl
der Probleme entdecken und dabei minimale Kosten entstehen lassen:
ProblemFound(i) stellt die Anzahl der gefundenen Probleme von i verschiedenen Experten dar.
N ist die Gesamtanzahl von allen gefundenen Problemen.
I ist zeigt den Durchschnittsproblem, welches von jedem Experten gefunden wurde.
(vgl.
http://www.useit.com/papers/heuristic/heuristic_evaluation.html )
Auswertung (Evaluierung)
Nachdem man eine Methode zur Evaluierung gewählt hat, sollten die Experten den Prototypen wieder betrachten.
Es ist wichtig dabei, dass sie während der Testes nicht miteinander über
die gefundenen Probleme diskutieren können.
Sie sollten den Prototypen auf Schwachstellen und Komplikationen untersuchen.
Z.B. wenn eine Internetseite unübersichtlich gegliedert ist, so dass man (oder
später der User) leicht verloren geht, usw.
Darüber muss dann der Experte einen Protokoll schreiben, mit allen benötigten
Informationen, wie Art des Problems, wo es sich befindet, in welcher
Zusammenhang, etc.
Wichtig ist es auch, dass man dabei eine mögliche Lösung des Problems
vorschlägt.
Solche Lösungen können ev. später genutzt werden.
Nach der Auswertung gibt es einen Treffen von allen Experten.
In diesem Treffen wird jedes gefundene Problem auf eine Tabelle geschrieben und
behandelt.
Danach versucht man aus dieser Tabelle die Probleme rauszukürzen, die öfters
vorkommen, sodass wir eine lineare Unabhängigkeit von dargestellten Problemen
haben.
Danach werden die Probleme in mehreren Stufen unterteil, je nach
Schwierigkeitsgrad des Problems.
Danach versucht man die beste Lösung von jedem in Betracht gezogenen Problem zu
finden.
Hier wird eine kurze Beschreibung des Prototyps und die Auswertung des "heuristic evaluation" dargestellt.
Man diskutiert hier über die guten Eigenschaften des Prototyps.
Dabei wird dann auch Kritik ausgeübt.
Man stellt alle gefundenen Probleme mit Schwierigkeitsgewicht graphisch in
Zusammenhang mit den zu untersuchenden Variablen (Tests) dar.
Durch die ganze Bearbeitung der Probleme, und die möglichen Lösungen jedes einzelnen Experten, wird eine gesamte optimale Lösung vorgeschlagen.
Quellenangaben:
1. http://www.usable.at/usability.htm#heuristische_evaluierung
2. http://www.oclc.org/policies/usability/heuristic/oclc.htm
3. http://www.useit.com/papers/heuristic/heuristic_evaluation.html
4. http://de.wikipedia.org/wiki/Jakob_Nielsen
5. http://en.wikipedia.org/wiki/Heuristic_evaluation
6. http://de.wikipedia.org/wiki/Mensch-Computer-Interaktion
7.http://www.useit.com