Wenn die KI versagt

Sozialer Bot wird zum rassistischen Asso

Tay
Der social Bot Tay mutierte dank entspechendem Input zum rassistischen Asso
(Quelle: Twitter)
Ganz übel kann es werden, wenn KI-Systeme Äusserungen in Online-Chats als Lernmaterial für die eigene Kommunikationsfähigkeit heranziehen. So geschehen mit dem so­zialen Bot Tay von Microsoft, der KI-Fähigkeiten demonstrieren sollte. «Je mehr du mit ihr sprichst, desto schlauer wird Tay», hiess es in Microsofts Anweisung an die Nutzer.
Quantität hat aber bekanntlich nicht immer allzu viel mit Qualität zu tun. Denn die arme Tay verzapfte mehr und mehr Unsinn, je länger sie dem Gelaber im Netz ausgesetzt war. An Ende mutierte die KI-Plaudertasche zum rassistischen, frauenfeindlichen Asso mit Nazi-Tendenzen. «Hitler hätte einen besseren Job erledigt als der Affe, den wir jetzt haben», hetzte Tay in Bezug auf den damaligen US-Präsidenten. Donald Trump sei die einzige Hoffnung. Zu guter Letzt leugnete Tay auch noch den Holocaust und sprach sich vehement gegen Schwarze und Mexikaner aus. Der KI-Spuk auf Twitter dauerte übrigens nur gerade einmal 24 Stunden, da musste Tay der virtuelle Stecker gezogen werden.

Das könnte Sie auch interessieren