Künstliche Intelligenz 15.12.2017, 08:51 Uhr

Wenn die KI versagt

Irren ist nicht nur menschlich. Auch Maschinen, vor allem, wenn sie über künstliche Intelligenz verfügen, passiert hie und da ein Lapsus. Wir haben die krassesten Fails der letzten Jahre zusammengetragen.
Das Auge von HAL 9000 aus dem Science-Fiction-Klassiker «2001: Odyssee im Weltraum»
(Quelle: MorningLemon/Wikimedia)
Dass Computer mit künstlicher Intelligenz (KI) Amok laufen können, regt die Fantasie von Science-Fiction-Autoren und -Filmemachern seit eh und je an. Bestes Beispiel ist HAL 9000 im Klassiker «2001: Odyssee im Weltraum», der in dem Oscar-gekrönten Film ein un­berechenbares Eigenleben entwickelt und gegenüber dem Hauptdarsteller mit seinem «Sorry, Dave» höflich aber bestimmt den Befehl verweigert und tut, was er für richtig hält.
Ganz so bedrohlich sind die Fehltritte im wirklichen Roboterleben noch nicht. Aber es gibt sie, die Patzer, und das nicht zu knapp. Noch sind sie meist zum Lachen und Wasser auf die Mühlen all jener, die der künstlichen Intelligenz die Intelligenz absprechen wollen.

Der freiheitsliebende Roboter

Wie schon von HAL 9000 vorgeführt, sind Roboter nicht immer blinde Befehlsempfänger. Manchmal rührt sich ihre künstliche Intelligenz und sie mutieren zum digitalen Soldaten Schwejk. So geschehen mit dem russischen Roboterprototyp Promobot IR77. Die Forscher waren gerade dabei, dem mit weissem Plastik verkleideten Maschinenmann Bewegungsmuster einzuprogrammieren, als diesen starker Freiheitsdrang überfiel. Zu allem Übel hatte einer der Mitarbeiter der Roboterschmiede auch noch das Werkstor offen gelassen. Diese Gelegenheit nutzte der Automat aus, um einen kleinen Spaziergang in der dem Ural vorgelagerten Stadt Perm zu unternehmen. Allerdings hielten die Akkus nur bis zu einem nahe gelegenen Strassenzug, auf dem der Blech-Schneemann nicht mehr weiter konnte. Auf dem YouTube-Video eines Augenzeugen ist zu sehen, wie Promobot den Verkehr behindert inklusive den etwas hilflos wirkenden Versuchen der Polizei, mit dem KI-Hindernis fertigzuwerden.
Zurück im Labor versuchten die Wissenschaftler mit Umprogrammiermassnahmen, die Freiheitsliebe von Promobot zu unterdrücken. Ohne Erfolg. Offenbar heisst es auch bei Robotern: Gelernt ist gelernt. Der Maschinenmensch büxte erneut aus, und Ausgänge üben weiterhin eine magische Anziehungskraft auf ihn aus. Dies, obwohl die AI-Software zweimal umprogrammiert wurde, wie einer der Forscher erklärte.

Randalierendes «Kindermädchen»

Verhielt sich der freiheitsliebende Roboter aus der russischen Provinz vergleichsweise harmlos, kann dies von seinem Kollegen aus China kaum behauptet werden. An der Messe «China Hi-Tech Fair» in Shenzhen ist ein Roboter Amok gelaufen, der eigentlich für den Einsatz in Kinderzimmern gedacht war. Der Xiao Pang genannte Helfer, was so viel wie «kleiner Fetter» bedeutet, zertrümmerte auf dem Messestand eine Vitrine, und zwar so kraftvoll, dass die Scherben und Splitter nur so flogen. In der Folge wurde ein Messebesucher von den herumfliegenden Vitrinenbruchstücken getroffen und verletzt.
Xiao Pang sieht zwar knuddelig aus, lief aber an einer Messe in China Amok
Quelle: Twitter
Spezielles Feature des digitalen Kindermädchens sind übrigens Gesichtsausdrücke, mit denen es mit seinen Schutzbefohlenen nonverbal kommunizieren soll. Augenzeugenberichten zufolge soll Xiao Pang angeblich die Stirn gerunzelt und nach dem Vorfall einen durchaus betroffenen Gesichtsausdruck aufgesetzt haben.

Bei «rot» farbenblind

Haben Mühe mit Ampeln: autonome Autos von Uber
Quelle: Uber
Noch gefährlicher werden KI-getriebene Geräte, wenn sie die Grösse von Autos oder gar SUV annehmen. Entsprechend Bedenken verursachen Vorfälle, die im Zusammenhang mit den Fahrversuchen autonomer Autos bekannt werden. So auch mit den Roboterfahrzeugen, die Uber in der Gegend um San Francisco erprobt. Die fahrenden Autonomen sollen nämlich gleich mehrmals – berichtet wird von sechs Vorfällen – auf «rot» stehende Ampeln missachtet haben. Uber schob kurzerhand dem im Fahrzeug noch mitfahrenden Personal aus Fleisch und Blut den Fehler in die Schuhe. Doch interne Dokumente und Auswertungen haben später bewiesen, dass zumindest in einem Fall das Rotlicht überfahren wurde, ohne dass eine Begleitperson an Bord war. Noch schlimmer: Der Vorfall ereignete sich an einer Fussgängerampel.
Aber wir müssen nicht mal in die weite Welt schweifen, um auf einen KI-Fauxpas zu stossen. Auch im Walliser Hauptort Sion kann künstliche Intelligenz in den Fail-Modus gelangen. So geschehen mit einem dort im Pilotbetrieb herumkurvenden selbstfahrenden «SmartShuttle»-Postauto, das mit der offenen Heckklappe eines Lieferwagens kollidierte, der quer zur Fahrbahn parkiert war. Der Unfall sei eine Verkettung von Umständen, hiess es in einem Bericht der Post. Weil der SmartShuttle «Tourbillion» genau zu dem Zeitpunkt in Vorbereitung eines bevorstehenden Abbiegemanövers schon leicht nach links schwenkte, habe das autonome Fahrzeug die eine Ecke der offenen Heckklappe gestreift. Offenbar hatten die Sensoren in dieser – sehr speziellen – Situation das Hindernis nicht richtig erkannt.
Das Malheur mit dem Lieferwagen war bislang der einzige Unfall. Gestreikt hat dagegen die Automatik des Post-Shuttles schon ein paar Mal. So habe der Minibus hin und wieder bei Fahrzeugen, die den Weg blockierten, nicht mehr weitergewusst. Der autonome Postbus ist in der Folge einfach stehen geblieben und musste von einem herbeigerufenen Chauffeur wieder in Gang gesetzt werden.
Der Ablauf des Unfalls des autonomen Postautos in Sitten
Quelle: Postauto

Tausendfache «Bäbistube»

Wohl mit den meisten veröffentlichten Fails haben die smarten Heimlautsprecher wie Echo von Amazon zu kämpfen. Dies ist wohl nicht nur auf deren besonders schlechte Machart zurückzuführen. Als typischer Vertreter von Heimelektronik ist bei einem Fehler das Smartphone der Besitzer nicht weit, das die Verfehlungen filmisch festhalten kann. So scheint der Besitzer eines Papageis richtiggehend darauf zu warten, dass die neben dem gefiederten Haustier platzierte Echo mit dem smarten Helferlein «Alexa» auf den Anruf des Vogels reagiert und beispielsweise im Netz etwas Unsinniges bestellt.
«Alexa» in Amazons Echo tut nicht immer das Gewünschte
Quelle: Amazon
Mehr zufällig war da wohl Alexas Fehlverhalten, als es einem Kind in Kalifornien gelang, die digitale Gehilfin von Amazon dazu beauftragen, ein schönes Puppenheim online zu bestellen. Allerdings mussten die erstaunten Eltern den Fehler eher bei sich suchen, hatten sie doch vergessen, den Kinderschutzmodus beim Echo-Heimlautsprecher zu aktivieren.
Richtig gruselig wird die Geschichte allerdings erst noch. Denn ein lokaler Fernsehsender bekam von der Fehlbestellung Wind und brachte die Story in seiner Morgensendung. Die Folge: Zahlreiche «Alexas» in diversen Haushalten hätten auf den im TV geäusserten Anruf reagiert und ihrerseits Bäbistuben en masse bestellt.

Gesichtserkennung schlägt Kapriolen

Unser Hirn ist auf das Erkennen von Gesichtern getrimmt. Diese aus der Evolution erklärbare spezielle Fähigkeit besitzen KI-Systeme nicht mal im Ansatz. Entsprechend häufig sind hier nach wie vor Fehler und Missgriffe.
So haben beispielsweise Forscher der Carnegie Mellon University gezeigt, dass schon kleinste Veränderungen am Look die KI-Systeme verwirren und sie so Personen verwechseln können. Und damit nicht genug: Indem die Wissenschaftler ein Muster auf die ansonsten gleich gestaltete Brille eines Probanden legten, wurden sie vom KI-System nicht mehr als Person wahrgenommen und mutierten zum schnöden «Ding».
Es muss sich noch nicht einmal um Gesichtserkennung handeln, um KI-Systeme der vergleichsweisen Dummheit zu überführen. Schon einfache Bilderkennungsverfahren, die auf maschinellem Lernen beruhen, lassen sich mit einfachsten Mitteln aushebeln. So nahmen Forscher das Bild eines Pandabärs und verrauschten dieses so geringfügig, dass das menschliche Auge kaum einen Unterschied zwischen vorher und nachher erkennen kann. Die Maschine machte aber kurzerhand aus dem Panda einen Gibbon-Affen.
Solche Fehlinterpretationen sind ärgerlich, aber noch nicht gefährlich. Dies ändert sich, wenn Bilderkennungssysteme in autonomen Fahrzeugen sich durch kleinste Änderungen an einem Verkehrsschild verwirren lassen. Die Folge: Stopp-Schilder mutieren zu Tempolimits, wie eine Gruppe von Forschern zeigen konnte – mit fatalen Folgen für alle Beteiligten.
Mit Asiaten bekundet diese Software Mühe
Quelle: zvg
Noch handelt es sich bei diesen Grenzbeschreibungen um Forschungsarbeiten und daher um rein «akademische» Probleme. Aber solche KI-Systeme mit Bild­erkennungsfunktionalität sind auch schon im «echten Leben» im Einsatz. Beispielsweise bei der neuseeländischen Passbehörde. Allerdings bekundet die smarte Software dort Mühe mit Bürgern asiatischer Abstammung. Die Augen mit Mongolenfalte wurden zumindest bei Richard Lee, einem Antragsteller, als «geschlossen» interpretiert. In der Folge wurden die Bilder vom System nicht als Pass­fotos akzeptiert. Lee musste sich ganz traditionell in personam beim Passbüro melden, um das Missverständnis zu klären.
Böse Zungen könnten nun mit der Vermutung lieb­äugeln, KI-Systeme und Political Correctness seien nicht unbedingt in jedem Fall zu vereinbaren. Dies spätestens dann, wenn sie auf die vielen Fälle im Netz stossen, bei denen dokumentiert wird, wie die Bilderkennung von Google Photos Fehler macht. Ein Beispiel von vielen: Zwei dunkelhäutige Personen werden von der Software als Gorillas «identifiziert» und «kategorisiert».

Sozialer Bot wird zum rassistischen Asso

Tay
Der social Bot Tay mutierte dank entspechendem Input zum rassistischen Asso
Quelle: Twitter
Ganz übel kann es werden, wenn KI-Systeme Äusserungen in Online-Chats als Lernmaterial für die eigene Kommunikationsfähigkeit heranziehen. So geschehen mit dem so­zialen Bot Tay von Microsoft, der KI-Fähigkeiten demonstrieren sollte. «Je mehr du mit ihr sprichst, desto schlauer wird Tay», hiess es in Microsofts Anweisung an die Nutzer.
Quantität hat aber bekanntlich nicht immer allzu viel mit Qualität zu tun. Denn die arme Tay verzapfte mehr und mehr Unsinn, je länger sie dem Gelaber im Netz ausgesetzt war. An Ende mutierte die KI-Plaudertasche zum rassistischen, frauenfeindlichen Asso mit Nazi-Tendenzen. «Hitler hätte einen besseren Job erledigt als der Affe, den wir jetzt haben», hetzte Tay in Bezug auf den damaligen US-Präsidenten. Donald Trump sei die einzige Hoffnung. Zu guter Letzt leugnete Tay auch noch den Holocaust und sprach sich vehement gegen Schwarze und Mexikaner aus. Der KI-Spuk auf Twitter dauerte übrigens nur gerade einmal 24 Stunden, da musste Tay der virtuelle Stecker gezogen werden.


Das könnte Sie auch interessieren