Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 4 Min.

KI-Sprachmodelle - die 12 grössten Probleme und Bedrohungen

KI-Chatbots können begeistern, sogar nützlich sein und Aufgaben übernehmen. Die Technologie dahinter birgt aber auch grosses Missbrauchspotenzial. Was kommt da auf Nutzerinnen und Nutzer zu?
© (Quelle: Karl-Josef Hildenbrand/dpa/dpa-tmn)

KI-Chatbots erzeugen Text von erstaunlich hoher Qualität: Anschreiben, Zusammenfassungen, Aufsätze, Vergleiche, Geschichten in einem bestimmten Schreibstil - oder sogar funktionierenden Programmcode. Die Bots bearbeiten, prüfen, analysieren oder übersetzen aber auch beliebigen Text und Code. Das alles kann unterhaltsam bis nützlich sein. Gleichzeitig birgt der Einsatz dieser Technologie «neuartige IT-Sicherheitsrisiken und verstärkt das Bedrohungspotenzial einiger bekannter IT-Sicherheitsbedrohungen». Zu diesem Schluss kommt das Bundesamt für Sicherheit in der Informationstechnik (BSI) in einem Positionspapier.

Hinter jedem KI-Chatbot steht ein sogenanntes Sprachmodell. Grosse KI-Sprachmodelle, auch Large Language Models (LLMs) genannt, sind Computerprogramme, die in der Lage sind, natürliche Sprache in geschriebener Form automatisiert zu verarbeiten. Bekannte Modelle sind etwa GPT von OpenAI oder Palm von Google. Palm verwendet Google für seinen Chatbot Bard. Und GPT kommt bei ChatGPT oder dem Bing-Chat von Microsoft zum Einsatz.

Das BSI nennt folgende bekannte Bedrohungen, die KI-Sprachmodelle weiter verstärken können:

  1. Das Erstellen oder Verbessern von Schadsoftware.
  2. Das Erzeugen von Spam- und Phishing-Mails unter Ausnutzung menschlicher Eigenschaften wie Hilfsbereitschaft, Vertrauen oder Angst (Social Engineering).
  3. Dabei können Sprachmodelle den Schreibstil der Texte in den Mails so anpassen, dass er dem einer bestimmten Organisation oder Person ähnelt.
  4. Die bei Spam- und Phishing-Mails bislang häufig anzutreffenden Rechtschreib- oder Grammatikfehler, die helfen können, solche Nachrichten zu erkennen, finden sich in den automatisch generierten Texten mittlerweile kaum mehr.
  5. Nicht nur zahlenmässig dürften sich E-Mail-Angriffe mithilfe von KI-Sprachmodellen mit verhältnismässig geringem Aufwand steigern. Die Nachrichten lassen sich vermittels der Modelle auch noch überzeugender gestalten.

Und das sind ganz neue Probleme und Bedrohungen durch KI-Sprachmodelle, die das BSI identifiziert hat:

  1. Ein grosses Risiko ist, dass Angreifer Eingaben von Nutzerinnen oder Nutzern heimlich in ein Sprachmodell umleiten, um den Chat zu manipulieren und Daten oder Informationen abzugreifen.
  2. Ohnehin besteht immer die Gefahr, dass eingegebene Daten nicht unbesehen bleiben, sondern vom Chatbot-Betreiber analysiert oder an unbekannte Dritte weitergegeben werden.
  3. Es ist möglich, dass Sprachmodelle zur Produktion von Fake News, Propaganda oder Hassnachrichten missbraucht werden, um die öffentliche Meinung zu beeinflussen.
  4. Die Fähigkeit zur Schreibstil-Imitation birgt hier eine besondere Gefahr: Falschinformationen könnten mit einem an bestimmte Personen oder Organisationen angepassten Stil verbreitet werden.
  5. Denkbar sind den Angaben zufolge auch maschinell erstellte Bewertungen, die dazu eingesetzt werden können, Dienstleistungen oder Produkte zu bewerben oder auch zu diskreditieren.
Ein Grundproblem von Chatbots ist, dass die zum Training des Sprachmodells verwendeten Daten und deren Qualität massgeblich die Funktionalität beeinflussen. Daraus ergeben sich laut BSI folgende Risiken:
  1. Fragwürdige Inhalte wie Desinformation, Propaganda oder Hassrede in der Trainingsmenge des Sprachmodells können in sprachlich ähnlicher Weise in den KI-generierten Text einfliessen.
  2. Es ist nie sicher, dass KI-generierte Inhalte aktuell oder faktisch korrekt sind. Denn ein Sprachmodell kann Informationen nur aus den bereits «gesehenen» Texten ableiten. Alle darüber hinausgehenden Einordnungen, die Menschen aus der realen Welt bekannt sind, können Modelle nicht vornehmen. Deshalb kann es sogar zum Erfinden von Inhalten kommen, das sogenannte Halluzinieren.

Fazit

Nutzerinnen und Nutzer sollten kritisch bleiben. Durch sprachlich oft fehlerfrei generierten Text entstehe bei der Nutzung von KI-Sprachmodellen häufig der Eindruck eines menschenähnlichen Leistungsvermögens - und damit ein zu grosses Vertrauen in KI-generierte Inhalte, obwohl diese unangemessen, faktisch falsch oder manipuliert sein können.

Künstliche Intelligenz (KI) Microsoft Phishing Google
Anzeige

Neueste Beiträge

Bundesrat eröffnet die Vernehmlassung für verbesserte polizeiliche Datenabfrage - POLAP
Der Bundesrat will die polizeiliche Datenabfrage effizienter gestalten. Schweizweit sollen alle Polizeien über eine gemeinsame Abfrageplattform gegenseitig Informationen abfragen können.
4 Minuten
20. Feb 2026
Bose Professional: Preview des DM12SE aus der DesignMax-Serie - Lautsprechersysteme
Bose Professional hat auf der ISE 2026 in Barcelona neue High-Performance-Lösungen für seine DesignMax-Reihe sowie Weiterentwicklungen bei Software und Systemintegration präsentiert.
2 Minuten
Forscher trainieren selbstfahrende Autos mit KI
Forscher der Dublin City University haben mit Kollegen der University of Birmingham ein virtuelles und zugleich KI-basiertes Testgelände für selbstfahrende Autos entwickelt, um seltene, besonders risikobehaftete Fahrszenarien zu erstellen, aus denen Fahrzeuge lernen können, wie sie darauf am besten reagieren.
2 Minuten

Das könnte Sie auch interessieren

191 Prozent mehr Malware-Angriffe im Dezember 2025 - Acronis Cyberthreats
Laut dem aktuellen Acronis Cyberthreats Update für Januar 2026 verzeichnete der Dezember 2025 den stärksten Anstieg gegenüber dem Vormonat bei erkannten Malware-Angriffen im Jahr 2025.
3 Minuten
27. Jan 2026
Falsche Krypto-Registrierung zielt auf Personendaten ab - Aufgepasst
Ein professionell gestaltetes Schreiben im Design Schweizerischen Institutionen täuscht eine angebliche Krypto-Registrierungspflicht vor und fordert Empfänger zur Eingabe persönlicher und finanzieller Daten auf.
2 Minuten
26. Jan 2026
Internetbox 2 - Test
Die Swisscom lanciert ihren neusten Router. Doch er ist mehr als ein Router. Vermag die Box auch anderweitig zu überzeugen? Computerworld hats überprüft.
5 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige