Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

KI-Algorithmen kapitulieren vor Emoticons

Aus Satzzeichen, Buchstaben und Zahlen zusammengesetzte Zeichenfolgen, die in der digitalen Kommunikation Emotionen, Mimik und Stimmungslagen simulieren, können Menschen zwar bestens interpretieren, generative Künstliche Intelligenz wie ChatGPT jedoch oftmals nicht.
Daumen hoch Emoji
© Emojipedia

Die KI-Tools betrachten diese Emoticons genannten Zeichenfolgen häufig als Teil von Anweisungen, was katastrophale Folgen wie das Löschen wichtiger Daten haben kann. Davor warnen Forscher der Xi'an Jiaotong University, der Nanyang Technological University (NTU) und der University of Massachusetts Amherst.

Massive Schwachstelle

Laut dem Team sind die Algorithmen durch Emoticons verwirrt, wobei diese falsch interpretiert und Antworten entsprechend irreführend generiert werden. "Emoticons werden in der digitalen Kommunikation häufig verwendet, um affektive Absichten zu vermitteln, doch ihre Auswirkungen auf die Sicherheit von 'Large Language Models' (LLMs) sind noch weitgehend unerforscht", schreiben Weipeng Jiang von der Jiaotong University und Xiaoyu Zhang von der NTU sowie ihre Kollegen.

So habe man eine Schwachstelle entdeckt. "LLMs können auf Ziffern, Buchstaben und Zeichen basierende Emoticons falsch interpretieren und unbeabsichtigte oder sogar destruktive Aktionen ausführen", heisst es weiter. Das schliessen die Experten aus den Folgen von fast 4.000 mit Emoticons gespickten Anfragen an sechs verschiedene LLMs.

Semantische Verwirrung

"Es zeigte sich, dass semantische Verwirrung bei Emoticons weitverbreitet ist. Wir registrierten derartige Fehler in 38 Prozent der Fälle. Besonders kritisch ist, dass über 90 Prozent der wirren Antworten auf den ersten Blick durchaus Sinn ergaben, aber mit der richtigen Antwort nichts oder nur wenig zu tun hatten und möglicherweise destruktive Folgen haben könnten", betonen die Forscher in ihrem Paper.

Gefährlich sei dies vor allem bei Codier-Aufgaben, wobei der generierte Code oberflächlich betrachtet gültig erscheint, aber nicht die gewünschten Ergebnisse liefere. "Wir rufen die Community dazu auf, diese neu auftretende Schwachstelle zu erkennen und wirksame Abhilfemassnahmen zu entwickeln, um die Sicherheit und Zuverlässigkeit des LLM-Systems zu gewährleisten", unterstreicht das Team abschliessend. (pressetext.com)

 

Anzeige

Neueste Beiträge

Emporia wird an Xplora verkauft
Der norwegische Hersteller Xplora Technologies ist weiter in Einkaufslaune: Nach Doro wird jetzt mit Emporia noch ein Spezialist für Seniorentelefone übernommen. Die Transaktion soll im zweiten Quartal abgeschlossen werden.
3 Minuten
17. Mär 2026
Studie: Netz und Preis schlagen Sicherheit
Verbraucher achten bei Telekommunikationsangeboten vor allem auf Netzqualität und Preis. Sicherheitsfunktionen oder zusätzliche Schutzangebote spielen laut einer aktuellen Umfrage eine deutlich geringere Rolle.
3 Minuten
17. Mär 2026
Post, SBB, Swisscom und Skyguide haben die Ziele des Bundesrates im Jahr 2025 insgesamt erreicht
Der Bundesrat hat überprüft, ob Post, SBB, Swisscom und Skyguide im Geschäftsjahr 2025 seine strategischen Ziele erreicht haben. Er ist zum Schluss gekommen, dass Post, SBB und Swisscom diese Vorgaben insgesamt erfüllt haben; Skyguide hat sie teilweise erfüllt. 
5 Minuten
16. Mär 2026

Das könnte Sie auch interessieren

Roboter sollen Feuerwehrleute künftig ersetzen
Ingenieure von Cyborg Dynamics Engineering und der Griffith University haben mobile unbemannte Feuerlöschroboter auf Basis Künstlicher Intelligenz (KI) entwickelt, die autonom gegen Brände vorgehen.
3 Minuten
Agentic AI: Lücke zwischen Vision und Realität
Camunda, ein Spezialist für agentenbasierte Automatisierung, zeichnet im „2026 State of Agentic Orchestration and Automation Report“ ein kritisches Bild der Hype-Technologie Agentic AI.
4 Minuten
KI-Bots passen Antworten an Bildungsstand an
Nutzer mit geringeren Englischkenntnissen, weniger formaler Bildung und nicht-amerikanischer Herkunft erhalten von KI-Chatbots schlechtere, oft falsche Infos.
2 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige