Wenn die KI versagt

Gesichtserkennung schlägt Kapriolen

Unser Hirn ist auf das Erkennen von Gesichtern getrimmt. Diese aus der Evolution erklärbare spezielle Fähigkeit besitzen KI-Systeme nicht mal im Ansatz. Entsprechend häufig sind hier nach wie vor Fehler und Missgriffe.
So haben beispielsweise Forscher der Carnegie Mellon University gezeigt, dass schon kleinste Veränderungen am Look die KI-Systeme verwirren und sie so Personen verwechseln können. Und damit nicht genug: Indem die Wissenschaftler ein Muster auf die ansonsten gleich gestaltete Brille eines Probanden legten, wurden sie vom KI-System nicht mehr als Person wahrgenommen und mutierten zum schnöden «Ding».
Es muss sich noch nicht einmal um Gesichtserkennung handeln, um KI-Systeme der vergleichsweisen Dummheit zu überführen. Schon einfache Bilderkennungsverfahren, die auf maschinellem Lernen beruhen, lassen sich mit einfachsten Mitteln aushebeln. So nahmen Forscher das Bild eines Pandabärs und verrauschten dieses so geringfügig, dass das menschliche Auge kaum einen Unterschied zwischen vorher und nachher erkennen kann. Die Maschine machte aber kurzerhand aus dem Panda einen Gibbon-Affen.
Solche Fehlinterpretationen sind ärgerlich, aber noch nicht gefährlich. Dies ändert sich, wenn Bilderkennungssysteme in autonomen Fahrzeugen sich durch kleinste Änderungen an einem Verkehrsschild verwirren lassen. Die Folge: Stopp-Schilder mutieren zu Tempolimits, wie eine Gruppe von Forschern zeigen konnte – mit fatalen Folgen für alle Beteiligten.
Mit Asiaten bekundet diese Software Mühe
(Quelle: zvg)
Noch handelt es sich bei diesen Grenzbeschreibungen um Forschungsarbeiten und daher um rein «akademische» Probleme. Aber solche KI-Systeme mit Bild­erkennungsfunktionalität sind auch schon im «echten Leben» im Einsatz. Beispielsweise bei der neuseeländischen Passbehörde. Allerdings bekundet die smarte Software dort Mühe mit Bürgern asiatischer Abstammung. Die Augen mit Mongolenfalte wurden zumindest bei Richard Lee, einem Antragsteller, als «geschlossen» interpretiert. In der Folge wurden die Bilder vom System nicht als Pass­fotos akzeptiert. Lee musste sich ganz traditionell in personam beim Passbüro melden, um das Missverständnis zu klären.
Böse Zungen könnten nun mit der Vermutung lieb­äugeln, KI-Systeme und Political Correctness seien nicht unbedingt in jedem Fall zu vereinbaren. Dies spätestens dann, wenn sie auf die vielen Fälle im Netz stossen, bei denen dokumentiert wird, wie die Bilderkennung von Google Photos Fehler macht. Ein Beispiel von vielen: Zwei dunkelhäutige Personen werden von der Software als Gorillas «identifiziert» und «kategorisiert».

Das könnte Sie auch interessieren