KI-Algorithmen kapitulieren vor Emoticons
Die KI-Tools betrachten diese Emoticons genannten Zeichenfolgen häufig als Teil von Anweisungen, was katastrophale Folgen wie das Löschen wichtiger Daten haben kann. Davor warnen Forscher der Xi'an Jiaotong University, der Nanyang Technological University (NTU) und der University of Massachusetts Amherst.
Massive Schwachstelle
Laut dem Team sind die Algorithmen durch Emoticons verwirrt, wobei diese falsch interpretiert und Antworten entsprechend irreführend generiert werden. "Emoticons werden in der digitalen Kommunikation häufig verwendet, um affektive Absichten zu vermitteln, doch ihre Auswirkungen auf die Sicherheit von 'Large Language Models' (LLMs) sind noch weitgehend unerforscht", schreiben Weipeng Jiang von der Jiaotong University und Xiaoyu Zhang von der NTU sowie ihre Kollegen.
So habe man eine Schwachstelle entdeckt. "LLMs können auf Ziffern, Buchstaben und Zeichen basierende Emoticons falsch interpretieren und unbeabsichtigte oder sogar destruktive Aktionen ausführen", heisst es weiter. Das schliessen die Experten aus den Folgen von fast 4.000 mit Emoticons gespickten Anfragen an sechs verschiedene LLMs.
Semantische Verwirrung
"Es zeigte sich, dass semantische Verwirrung bei Emoticons weitverbreitet ist. Wir registrierten derartige Fehler in 38 Prozent der Fälle. Besonders kritisch ist, dass über 90 Prozent der wirren Antworten auf den ersten Blick durchaus Sinn ergaben, aber mit der richtigen Antwort nichts oder nur wenig zu tun hatten und möglicherweise destruktive Folgen haben könnten", betonen die Forscher in ihrem Paper.
Gefährlich sei dies vor allem bei Codier-Aufgaben, wobei der generierte Code oberflächlich betrachtet gültig erscheint, aber nicht die gewünschten Ergebnisse liefere. "Wir rufen die Community dazu auf, diese neu auftretende Schwachstelle zu erkennen und wirksame Abhilfemassnahmen zu entwickeln, um die Sicherheit und Zuverlässigkeit des LLM-Systems zu gewährleisten", unterstreicht das Team abschliessend. (pressetext.com)