Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 4 Min.

KI-Sprachmodelle - die 12 grössten Probleme und Bedrohungen

KI-Chatbots können begeistern, sogar nützlich sein und Aufgaben übernehmen. Die Technologie dahinter birgt aber auch grosses Missbrauchspotenzial. Was kommt da auf Nutzerinnen und Nutzer zu?
© (Quelle: Karl-Josef Hildenbrand/dpa/dpa-tmn)

KI-Chatbots erzeugen Text von erstaunlich hoher Qualität: Anschreiben, Zusammenfassungen, Aufsätze, Vergleiche, Geschichten in einem bestimmten Schreibstil - oder sogar funktionierenden Programmcode. Die Bots bearbeiten, prüfen, analysieren oder übersetzen aber auch beliebigen Text und Code. Das alles kann unterhaltsam bis nützlich sein. Gleichzeitig birgt der Einsatz dieser Technologie «neuartige IT-Sicherheitsrisiken und verstärkt das Bedrohungspotenzial einiger bekannter IT-Sicherheitsbedrohungen». Zu diesem Schluss kommt das Bundesamt für Sicherheit in der Informationstechnik (BSI) in einem Positionspapier.

Hinter jedem KI-Chatbot steht ein sogenanntes Sprachmodell. Grosse KI-Sprachmodelle, auch Large Language Models (LLMs) genannt, sind Computerprogramme, die in der Lage sind, natürliche Sprache in geschriebener Form automatisiert zu verarbeiten. Bekannte Modelle sind etwa GPT von OpenAI oder Palm von Google. Palm verwendet Google für seinen Chatbot Bard. Und GPT kommt bei ChatGPT oder dem Bing-Chat von Microsoft zum Einsatz.

Das BSI nennt folgende bekannte Bedrohungen, die KI-Sprachmodelle weiter verstärken können:

  1. Das Erstellen oder Verbessern von Schadsoftware.
  2. Das Erzeugen von Spam- und Phishing-Mails unter Ausnutzung menschlicher Eigenschaften wie Hilfsbereitschaft, Vertrauen oder Angst (Social Engineering).
  3. Dabei können Sprachmodelle den Schreibstil der Texte in den Mails so anpassen, dass er dem einer bestimmten Organisation oder Person ähnelt.
  4. Die bei Spam- und Phishing-Mails bislang häufig anzutreffenden Rechtschreib- oder Grammatikfehler, die helfen können, solche Nachrichten zu erkennen, finden sich in den automatisch generierten Texten mittlerweile kaum mehr.
  5. Nicht nur zahlenmässig dürften sich E-Mail-Angriffe mithilfe von KI-Sprachmodellen mit verhältnismässig geringem Aufwand steigern. Die Nachrichten lassen sich vermittels der Modelle auch noch überzeugender gestalten.

Und das sind ganz neue Probleme und Bedrohungen durch KI-Sprachmodelle, die das BSI identifiziert hat:

  1. Ein grosses Risiko ist, dass Angreifer Eingaben von Nutzerinnen oder Nutzern heimlich in ein Sprachmodell umleiten, um den Chat zu manipulieren und Daten oder Informationen abzugreifen.
  2. Ohnehin besteht immer die Gefahr, dass eingegebene Daten nicht unbesehen bleiben, sondern vom Chatbot-Betreiber analysiert oder an unbekannte Dritte weitergegeben werden.
  3. Es ist möglich, dass Sprachmodelle zur Produktion von Fake News, Propaganda oder Hassnachrichten missbraucht werden, um die öffentliche Meinung zu beeinflussen.
  4. Die Fähigkeit zur Schreibstil-Imitation birgt hier eine besondere Gefahr: Falschinformationen könnten mit einem an bestimmte Personen oder Organisationen angepassten Stil verbreitet werden.
  5. Denkbar sind den Angaben zufolge auch maschinell erstellte Bewertungen, die dazu eingesetzt werden können, Dienstleistungen oder Produkte zu bewerben oder auch zu diskreditieren.
Ein Grundproblem von Chatbots ist, dass die zum Training des Sprachmodells verwendeten Daten und deren Qualität massgeblich die Funktionalität beeinflussen. Daraus ergeben sich laut BSI folgende Risiken:
  1. Fragwürdige Inhalte wie Desinformation, Propaganda oder Hassrede in der Trainingsmenge des Sprachmodells können in sprachlich ähnlicher Weise in den KI-generierten Text einfliessen.
  2. Es ist nie sicher, dass KI-generierte Inhalte aktuell oder faktisch korrekt sind. Denn ein Sprachmodell kann Informationen nur aus den bereits «gesehenen» Texten ableiten. Alle darüber hinausgehenden Einordnungen, die Menschen aus der realen Welt bekannt sind, können Modelle nicht vornehmen. Deshalb kann es sogar zum Erfinden von Inhalten kommen, das sogenannte Halluzinieren.

Fazit

Nutzerinnen und Nutzer sollten kritisch bleiben. Durch sprachlich oft fehlerfrei generierten Text entstehe bei der Nutzung von KI-Sprachmodellen häufig der Eindruck eines menschenähnlichen Leistungsvermögens - und damit ein zu grosses Vertrauen in KI-generierte Inhalte, obwohl diese unangemessen, faktisch falsch oder manipuliert sein können.

Künstliche Intelligenz (KI) Microsoft Phishing Google
Anzeige

Neueste Beiträge

Canon feiert 30 Jahre PowerShot
Canon begeht im Jahr 2026 das 30-jährige Jubiläum seiner PowerShot-Serie kompakter Digitalkameras. Anlässlich dieses Jubiläums bringt das Unternehmen im April 2026 die PowerShot G7 X Mark III 30th Anniversary Edition auf den Markt.
3 Minuten
Festplatten sind künftig dünner als Papier
Forscher des Daegu Gyeongbuk Institute of Science and Technology haben ein neues Speichermedium mit bisher ungeahnten Spezifikationen entwickelt. Es wird dünner als ein Blatt Papier sein.
2 Minuten
Ines Stutz übernimmt Leitung des Bereichs SAP Consulting bei Aveniq
Aveniq gewinnt mit Ines Stutz eine Expertin für Unternehmens- und IT-Transformationen für die Leitung des Bereichs SAP Consulting. Mit dieser Neubesetzung unterstreicht Aveniq die strategische Bedeutung des SAP-Marktsegments und baut ihre SAP-Beratungs- und Transformationskompetenz weiter aus.
2 Minuten

Das könnte Sie auch interessieren

«Bei der Datensouveränität gilt es die richtige Balance zu finden» - Quotes & Thoughts
Daniel Bachofner, Country Manager NetApp Schweiz, vertritt die Meinung, dass sich die Entscheidung, wie souverän Daten in einem Unternehmen gehandhabt werden, stark auf die Wettbewerbsfähigkeit auswirkt.
3 Minuten
191 Prozent mehr Malware-Angriffe im Dezember 2025 - Acronis Cyberthreats
Laut dem aktuellen Acronis Cyberthreats Update für Januar 2026 verzeichnete der Dezember 2025 den stärksten Anstieg gegenüber dem Vormonat bei erkannten Malware-Angriffen im Jahr 2025.
3 Minuten
27. Jan 2026
Falsche Krypto-Registrierung zielt auf Personendaten ab - Aufgepasst
Ein professionell gestaltetes Schreiben im Design Schweizerischen Institutionen täuscht eine angebliche Krypto-Registrierungspflicht vor und fordert Empfänger zur Eingabe persönlicher und finanzieller Daten auf.
2 Minuten
26. Jan 2026
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige