Institut für Informatik | Sitemap | LMU-Portal
English
  • Startseite
  • Studieninteressierte
  • Studierende
  • Lehrveranstaltungen
    • Archiv
    • WS 2006/2007
      • AR
      • DM
      • FOTO
      • HS
      • IV3D
      • MMI1
        • Essays
      • MMN
      • OS
      • PEM
      • PMG
  • Forschung
  • Personen
  • Kontakt
  • Besucher
  • Jobs
  • FAQ
  • Intern

Common Misconceptions in Movies about Computers

Der erfahrene Kinogänger ist natürlich mit den Besonderheiten der Hollywood Filmwelt längst vertraut: Der Beschießen von Automobilen mit Standard-9mm-Munition führt fast unweigerlich dazu, dass das Fahrzeug in einem gewaltigen Flammenball verglüht (es sei denn, der Protagonist sitzt am Steuer), Bösewichte haben ein unbändiges Bedürfnis, dem Helden kurz vor dessen sicher geglaubtem Ableben alle Einzelheiten ihres fiesen Planes zu erläutern und Bomben haben immer eine bedrohliche rote Digitalanzeige, die die Zeit bis zur Detonation unerbittlich runterzählen, nur um dann 2 Sekunden vor dem Ende durch das Kappen des roten Drahts entschärft zu werden. Während einige dieser Unstimmigkeiten bewusst aus Zwecken der Dramaturgie oder der inneren Logik in Kauf genommen wurden, geschehen andere Fehler wohl einfach aus schlichter Unkenntnis der Realität. Wir wollen nun unsere Aufmerksamkeit einem Utensil zuwenden, dessen Darstellung in der Filmwelt sich erheblich von der harten Realität unterscheidet: Den Computern. Wie alle Gegenstände des täglichen Gebrauchs sind auch Computer selbstverständlich ein Teil der Kulisse oder gar der Handlung in unzähligen Filmproduktionen, egal ob es sich um Hollywood-Blockbuster oder kleine Independent-Produktionen handelt.

Dabei haben sie jedoch einige Eigenschaften und Qualitäten, die man bei einem reellen Computer wohl nie finden würde. Doch bevor wir auf diese eingehen, wollen wir das Betrachtungsfeld erstmal etwas eingrenzen. Wir wollen im Folgenden nur die Filme betrachten, die nicht in der Zukunft spielen. Zwar sind Computer ein fester Bestandteil jedes ordentlichen Science-Fiction-Films, aber nun haarklein zu erläutern, warum die Holomatrix von Star Trek eigentlich nicht funktionieren kann, bringt zu nichts. Auch wollen wir uns nur auf die Teile eines Films beschränken, die den Anschein von Realität erwecken wollen.

So würden wir bei Betrachtung von Terminator die Existenz des allmächtigen Rechners Skynet, der selbstständig agierende Tötungsroboter durch die Zeit schickt, einfach als gegeben hinnehmen, da dies das Paradigma des Films an sich darstellt. Wenn aber John Connor in Terminator 2 mit seinem Laptop und ein paar Kabeln den Geldautomat dazu bringt, Bündelweise Geldscheine auszuspucken, dann kann man die Logik hier sehr wohl anzweifeln, denn dieser merkwürdige Vorgang hat nichts mit dem Paradigma des Films zu tun.

Eines der häufigsten Probleme, das in Filmen konsequent ignoriert wird, ist das der mangelnden Kompatibilität verschiedener Systeme. In Filmen wird so getan, als gäbe es auf der ganzen Welt lediglich ein Betriebssystem, als würden alle Netzwerke mit den selben Spezifikationen laufen, als gäbe es keine Probleme mit Dateiformaten, Codec-Fehlern, nicht installierten Treibern oder einer Million anderer Tücken, mit denen der Benutzer im täglichen Gebrauch so konfrontiert wird.

So scheinen in Filmen die Daten, die Geheimagenten aus irgendwelchen Quellen erhalten, stets mit dem nächst besten Rechner sofort und perfekt darstellbar zu sein – von unbekannten Dateiformaten, fehlenden Codecs oder ähnlichem keine Spur. Stecker passen immer, Standardisierungskriege gibt es im Kino keine und das ein Rohling mit empfindlichen Daten mal nicht gelesen werden kann kommt auch nie vor. Hollywood hat das Plug-And-Play Konzept zur Perfektion gebracht. Alle Personen kennen sich in Filmen immer sofort mit allen Systemen aus. Wenn in der Realität ein geübter Windows-Benutzer zum ersten Mal an einem Macintosh sitzt (welche sich ja wirklich enorm ähneln, da Microsoft in regelmäßigen Abständen alle Innovationen von Apples Benutzeroberfläche nachmacht), wird er dennoch erstmal etwas irritiert sein und sich nicht sofort zurechtfinden. Ganz anders im Film: Wenn in Jurassic Park das 12-jährige Mädchen die spezielle Park-Kontrollsoftware zum Verriegeln des Türsystems nutzen möchte, so weiß sie sofort wo’s langgeht und hat innerhalb weniger Sekunden die gewünschte Funktion gefunden.

Zugegebenermaßen sagt sie selbst, es wäre ein Unix-System und damit würde sie sich auskennen. Aber Unix ist berüchtigt für seien Inkonsistenz beim Design grafischer Benutzeroberflächen. Für den Jurassic Park wurde sogar ein aufwendiges, dreidimensionales Interface erstellt, durch das der Benutzer hindurchnavigiert. Dies stellt ein weiteres Paradigma der Filmwelt dar: Hollywood geht fest davon aus, dass der beste Weg zur Datenmanipulation über virtuelle Realitäten führt. Jurassic Park ist hierbei noch ein harmloses Beispiel, wobei es schon hier absolut keinen Sinn machen würde, die einzelnen Subsysteme des Parks in 3D darzustellen. Ein zweidimensionales Ordnersystem wäre billiger, weniger aufwändig, übersichtlicher und vor allem für einen Benutzer mit nur der leisesten PC-Erfahrung vertrauter als das 3D-Labyrinth. Im Film „Enthüllung“ mit Michael Douglas hat eine Firma ihr gesamtes Dokumentverwaltungs- und Datenbanksystem mit einer VR-Maschine gekoppelt. Dieses Monstrum aus Datenhelm, Datenhandschuh, sensitivem Kugelboden und weiteren sündteuren Accessoires dient lediglich dazu, dem Benutzer die Illusion zu vermitteln, die Dokumente würden in einer virtuellen Bibliothek lagern. Wie im Film zu sehen ist, geht der direkte Zugriff auf die Daten per Eingabeaufforderung schneller und genauso effektiv. Der einzige Vorteil wäre hier für unerfahrene Benutzer zu sehen, die sich mit der Struktur der Datenbank nicht auskennen. Dann tun sich allerdings weitere Fragen auf: Wieso sollte eine Firma unerfahrene Benutzer auf ihre Datenbank loslassen? Wäre die Einarbietungszeit für das VR-System nicht mindestens genauso lang wie für die Datenbank? Und warum sollten sie Millionen von Dollar in ein Zugriffssystem stecken, an dem nur eine einzige Person arbeiten kann?

Eine ganze Heerschar von Drehbuchautoren scheint nicht nur von den Möglichkeiten der virtuellen Realität überzeugt, sondern auch von ihrer unbedingten Notwendigkeit.

Ein weiterer Hollywood-Mythos ist der Grad an Vernetzung von Computern. Hacker-Genies im Teenageralter oder alternde Nerds, die mit flinken Pizzafingern Kernkraftwerke, Raketenabschussbasen, Geheimdienstrechner und die Stromnetze ganzer Großstädte nach ihrer Pfeife tanzen lassen, sind ein gängiges Element in unzähligen Hollywood-Streifen wie Mission Impossible, The Core, Wargames, Jurassic Park oder Superman, um nur einige zu nennen. Dabei wird nur in den wenigsten Filmen beachtet, wie einfach man bei empfindlichen System auch den besten Hacker aus seinem Computer raushalten kann: Man steckt ihn einfach nicht ans Internet. Ein isoliert stehender Terminalrechner ist die sicherste Methode um sich auch noch vor dem weltbesten Hacker zu schützen. Wie es vorbildlicherweise in Mission Impossible geschah, als Ethan Hunt wirklich in persona bis zu dem Rechner vordringen musste, um an die gewünschten Daten zu gelangen. Wirklich empfindliche Systeme sind in der Realität einfach nicht mit dem Internet verbunden. Damit wird es für Unbefugte unheimlich schwer, Daten herauszulesen – von der Manipulation ganz zu schweigen. Was den Passwortschutz betrifft: In der wirklichen Welt ist es normalerweise nicht der Vorname der Tochter des Programmierers und es ist auch nicht ein Bild oder Objekt in Sichtweite des Bürostuhls des Bösewichts. Und meist erscheinen nach Eingabe des richtigen Passworts auch keine großen, grünen Lettern mit der Aufschrift „ACCESS GRANTED“, da man normalerweise sowieso davon ausgeht, dass sich ein berechtigter Nutzer einloggt.

Bei der Dechiffrierung von Codes mit der Brute Force Methode ist es auch nicht so, dass von einem 8-stelligen Code eine Ziffer nach der anderen ermittelt wird (wie. Z.B. in Tomb Raider). Das würde ja bedeuten, das bei der versuchsweisen Eingabe eines Passworts mit teilweise richtigen Ziffern der Rechner antworten würde: „Nicht ganz, aber die 1 und die 7 sind schon mal richtig… nur weiter so!“

Doch auch wenn ein Hacker irgendwie die Kontrolle über ein System erlangt hat, dann sind die Möglichkeiten der Interaktion dennoch beschränkt. Kein noch so findiger Spezialist kann über Trojaner, Viren oder sonst was Netzwerkkabel in Brand setzen oder gewöhnliche elektrische Geräte kontrollieren, wie uns in manchen Filmen weisgemacht werden soll. Nur weil ein elektronisches Bauteil in meiner elektrischen Zahnbürste steckt, kann sie nicht über mein gehacktes WLAN gesteuert werden. Und wenn der TX in Terminator 3 seine Nanomaschinen in die Elektronik eines Streifenwagens einspeist und sie somit per Fernsteuerung bedienen kann, so erklärt dies immer noch nicht, wie mechanische Subsysteme wie das schlichte Gaspedal ebenfalls dieser Kontrolle unterliegen. Der vorhandene Grad an Vernetzung ist einfach lange nicht so groß wie von den Drehbuchautoren oftmals angenommen.

Und auch wenn tatsächlich das nötige Interface vorhanden ist, um Maschinen mit Hilfe eines Computersystems fernzusteuern, so übertreiben es die Filmemacher dann doch oft gehörig – wie z.B. in James Bond 007 Golden Eye, als der Geheimagent im Auftrag Ihrer Majestät seinen BMW über sein Sony Ericson Handy vom Rücksitz steuert. Selbst wenn das Handy-Signal nicht den Umweg über die Sendestationen macht, ist ein Mobiltelefon wohl ein denkbar ungeeignetes Interface zur Steuerung eines BMW – und vor allem bei den Manövern, die 007 in dieser Szene durchführt.

Schließlich wird auch bei Aufbau von Rechnerkomponenten bezüglich ihrer Brennbarkeit und des Explosionsrisikos enorm gemogelt. Wenn ein Standardmonitor im Kino von einem gewöhnlichen Vollmantelgeschoss getroffen wird, dann kann man von einer mittleren Explosion mit gewaltigen Starkstromfunken, Flammen und enormer Rauchentwicklung ausgehen. Auch wenn Kabelbrände durchaus in der Realität möglich sind, so ist das Risiko einer Explosion doch minimal, egal wie man seinen Rechner bearbeitet.

Man kann also folgende Hauptfehler ausmachen und klassifizieren:

Der Grad an Kompatibilität von Daten und Hardware übersteigt den der Realität um ein Vielfaches.

Der Grad an Vernetzung von Rechnern und elektronischen Geräten und die Möglichkeiten zur Interaktion und Steuerung solcher Komponenten ist im Film um ein Vielfaches höher als in der realen Welt.

Daraus resultiert auch das Hacker im Film viel größere Macht haben als in der Realität und das viele Sicherheitsvorkehrungen in Filmen viel geringer sind als in Wahrheit.

In der Realität werden Daten viel eher in langweiligen Tabellen und Ordnern dargestellt, wo man in Hollywood auf aufwändige grafische Darstellungen, 3D-Menüs oder gar virtuelle Realitäten setzt.

Egal, welche Einflüsse auf einen Rechner und seine Komponenten einwirken, die Effekte sind in Hollywood um ein Vielfaches spektakulärer als in Wirklichkeit.

Wenn man sich nun fragt, warum all diese Unstimmigkeiten auftreten, dann lassen sich die meisten einfach durch den Zweck des Filmes erklären. Ein Film will unterhalten und muss innerhalb seiner 120 Minuten seine Story erzählen. Deshalb lässt man alles Überflüssige weg. Und DirectX-Probleme, Bluescreens und fehlgeschlagene Windows-Updates sind meist kein elementarer Bestandteil der Geschichte, weshalb sie einfach nicht vorkommen. Den Toilettengang des Protagonisten, der sicherlich auch irgendwann erfolgen muss, wird ja auch nicht gezeigt, solange er für das Fortschreiten der Story nicht relevant ist. Im Film hat alles, was gezeigt wird, irgendeine Bedeutung – entweder in sich oder zu einem späteren Zeitpunkt. Wenn keiner der beiden Gründe, etwas zu zeigen, gegeben ist, dann lässt man es weg.
Einige andere Elemente nimmt man in Filme auf, um das außergewöhnliche zu zeigen. Auch wenn 15-jährige Hacker in der Realität nie ein Nuklearkraftwerk unter ihre Kontrolle bekommen, so kann dies im Film allein schon deshalb geschehen, weil dies eindrucksvoll zeigt, wie außergewöhnlich gut der Junge sein muss.
Andere Aspekte, vor allem die häufigere Benutzung graphischer Interfaces und die Verwendung riesiger Schriftgrößen, haben ihren Grund in der Tatsache, dass man ja dem Zuschauer etwas zeigen möchte. Eine DOS-Eingabeaufforderung mit lauter kryptischen Befehlen wäre möglicherweise sehr realitätsnah, aber würde dem Publikum nicht viel sagen. Wenn Traceroute allerdings mit leuchtenden roten Linien auf dem Bildschirm dargestellt wird, hat auch der größte Laie zumindest eine vage Ahnung, dass hier irgendwelche Daten übers Internet geschickt werden. Virtuelle Realitäten lassen sich hervorragend in Filme integrieren und sind auch witzig und interessant zu betrachten. Und das in Actionfilmen so ziemlich alles unter Beschuss explodiert ist auch eine allgemein bekannte Tatsache – warum sollte man also bei Computern hier eine Ausnahme machen?
Wenn es der Story dient, so dürfen auch die größten Fehler in den Film integriert werden – sie sollten dann aber auch wirklich notwendig sein und nach Möglichkeit erklärt werden. Wenn die zwölfjährige Lex in Jurassic Park also sagt: „Das ist ein Unix-System, damit kenn ich mich aus.“, dann ist es zwar immer noch überaus unwahrscheinlich, dass sie das Verriegelungsprogramm der Tür rechtzeitig findet, aber es wird dem Zuschauer zumindest nicht mehr sauer aufstoßen.
Und hätte in Independence Day einer der Militärwissenschaftler einen Satz gesagt wie: „Es ist uns gelungen, ihre Softwarearchitektur zu knacken. Im Endeffekt funktionieren deren Computer ganz ähnlich wie unsere.“, dann wäre das zwar immer noch absolut hanebüchen gewesen, aber der Zuschauer hätte es dennoch ohne mit der Wimper zu zucken hingenommen, da es damit ein Teil des Paradigmas des Filmes geworden wäre.


Bleibt also die Frage, ob die Fehler in Filmen bezüglich Computern ein Phänomen ist, das lediglich einem kleinen Kreis gut informierter Besserwisser beschäftigt und ob man diese oftmals an den Haaren herbeigezogenen Ereignisse einfach mit einem Lächeln hinnehmen sollte, denn es geht ja schließlich nur ums Entertainment.

Ich denke, ganz so auf die leichte Schulter sollte man solche Fehler nicht nehmen. Zum einen möchte ich auch schlüssig unterhalten werden, weshalb ich von den Machern eine ordentliche Recherche und Umsetzung erwarte. Und darüber hinaus darf man bei aller Unterhaltungsintention von Filmen nicht aus den Augen lassen, dass nach der Kultivierungshypothese die Medien soziale Realitäten schaffen.
Wenn also im Fernsehen ständig Autos beim kleinsten Zusammenstoß explodieren, dann weckt dies in Uneingeweihten die Furcht, dies könne auch in der Realität so sein.
Bei den Computern ist dies ebenso – sowohl bezüglich der Hoffnungen als auch der Ängste.
Ein Großteil der uninformierten Öffentlichkeit erwartet bei ihren Computern eine ähnliche Performanz wie bei den filmischen Gegenstücken und ist dann frustriert, wenn das nicht den Tatsachen entspricht. Auch wird der Anschein erweckt, dass einige in Filmen oft verwendete Techniken wie die Kommunikation mit dem Computer über Sprache oder die Erstellung dreidimensionaler holografischer Bilder eine Angelegenheit wäre, die kurz vor der Perfektion steckt, obwohl die Technik in der Realität noch meilenweit von der Marktreife entfernt ist. Was die Furcht vor Hackern und hyperintelligenten Supercomputern, die die Weltherrschaft an sich reißen wollen, betrifft, dürfte es wohl ganz ähnlich sein.

Zusammenfassend kann man wohl sagen, dass einer guten, spannenden Story die Realitätsnähe zu einem guten Teil untergeordnet werden darf, dass aber ein bisschen bessere Recherche und Umsetzung bei vielen Filmen auch den Unterhaltungswert gesteigert hätte – Zuschauer, denen die Fehler auffallen, fühlen sich nämlich, salopp ausgedrückt, verarscht.
Und das hinterlässt immer einen fahlen Nachgeschmack.

Referenzen:

Terminator 2 - Judgement Day (1991), Regie: James Cameron
Jurassic Park (1993), Regie: Steven Spielberg
Disclosure (1994), Regie: Barry Levinson
Tomorrow Never Dies (1997), Regie: Roger Spottiswoode
Mission: Impossible (1996), Regie: Brian De Palma
Netzwelt Artikel von Christian Rentrop: Verkehrte Netzwelt: Die albernsten Computer-Klischees in Film und Fernsehen
Blog von Jakob Nielsen, Ph.D.: Usability in the Movies -- Top 10 Bloopers
Nach oben
Impressum – Datenschutz – Kontakt  |  Letzte Änderung am 18.04.2007 von Richard Atterer (rev 1908)