Anzeige
Anzeige
Anzeige
Lesedauer 4 Min.

Achtung, Manipulation: So missbrauchen Cyberkriminelle die KI

Künstliche Intelligenz ist längst nicht mehr nur ein Mittel zur Automatisierung und Effizienzsteigerung. Dieselben Modelle und Techniken, die Unternehmen für sich nutzen, werden zunehmend von Kriminellen missbraucht.
© Shutterstock / NTT

NTT DATA, ein führender Anbieter von digitalen Business- und Technologie-Services, beschreibt die wichtigsten Methoden, die Cyberkriminelle heute einsetzen, woran man die Angriffe erkennen kann und welche Gegenmassnahmen sich bewährt haben.  ​

Künstliche Intelligenz ist ein mächtiges Tool: Die Technologie skaliert nicht nur legitime Geschäftsprozesse, sondern immer häufiger auch illegale Aktivitäten. Mit GenAI beispielsweise lassen sich überzeugende Phishing-Mails formulieren oder Deepfakes erzeugen. Gleichzeitig sind KI-Modelle selbst zu neuen Angriffszielen geworden – etwa durch Data Poisoning oder Prompt Injection.

NTT DATA zeigt, wo die Gefahren lauern und wie Unternehmen sich schützen können:

  • Data Poisoning zählt zu den subtilsten Methoden. Angreifer manipulieren gezielt Trainings- oder Validierungsdaten, um ein Modell auf den falschen Weg zu bringen. Ein Spamfilter, der schädliche Inhalte plötzlich nicht mehr erkennt, oder ein Modell für die Anomalienerkennung, das ungewöhnliche Vorgänge fälschlicherweise als «normal» einstuft, sind die Folgen. Hinweise liefern etwa plötzliche Qualitätsabfälle oder statistische Auffälligkeiten in Datensätzen. Wer Herkunft und Versionierung von Daten streng kontrolliert, Integritätsprüfungen vornimmt und Modelle regelmässig neu validiert, macht es Angreifern deutlich schwerer.
  • Prompt Injection richtet sich speziell gegen KI-Modelle, die in Anwendungen wie Chatbots oder Assistenten eingebettet sind. Hier versuchen Angreifer, mit geschickt formulierten Eingaben die ursprünglichen Anweisungen auszuhebeln – etwa um vertrauliche Inhalte preiszugeben oder geschützte Aktionen auszulösen. Die Folgen reichen von ungewollten Antworten bis hin zu Datenabflüssen. Hilfreich sind mehrstufige Schutzmassnahmen: Eingabevalidierung, strenge Zugriffsrechte für angebundene Systeme sowie Ausgabefilter und Freigabeprozesse bei sicherheitsrelevanten Funktionen.
  • Phishing, Social Engineering und Deepfakes nutzen moderne Text-, Sprach- und Bildgeneratoren, um hochgradig personalisierte oder täuschend echte Inhalte zu erzeugen. Beim Pretexting geben sich Angreifer als Kollegen aus – etwa aus der IT –, um an sensible Daten wie Login-Infos zu kommen. Im Rahmen von Scareware werden Nutzer mit gefälschten Warnungen und Bedrohungen unter Druck gesetzt, damit sie unüberlegt handeln. So steigen die Erfolgschancen für CEO-Fraud oder nicht genehmigte Zahlungsfreigaben. Nachrichten wirken häufig stilistisch perfekt und inhaltlich sehr präzise. Bei Audio- oder Videomaterial fallen allenfalls leichte Unstimmigkeiten auf. Unternehmen stärken ihre Verteidigung, indem sie Identitätsprüfungen bei kritischen Vorgängen fest verankern, Mitarbeitende schulen und technische Werkzeuge zur Erkennung manipulierter Medien einsetzen.
  • Adversarial Examples wiederum greifen Modelle auf einer sehr technischen Ebene an: Winzige, für Menschen oft unsichtbare Veränderungen an Bildern, Sensordaten oder Texten können ausreichen, um ein Modell zu einer falschen Klassifikation zu verleiten. Das kann etwa Bilddetektoren oder Industrie-Sensorik aus dem Konzept bringen. Auffällig sind Inkonsistenzen zwischen Modellprognosen und realen Beobachtungen. Ein Schutz der Modelle lässt sich durch gezieltes Nachtrainieren mit manipulierten Beispielen, zusätzliche Validierungsstufen oder die Kombination mehrerer Datenquellen sicherstellen.
  • Entwicklung von Malware: Schadprogramme lassen sich schneller variieren, gezielt auf bestimmte Ziele zuschneiden oder vorab gegen Erkennungsmechanismen testen. Dadurch steigt die Zahl potenzieller Varianten, die nur schwer zu entdecken sind. Eine rein signaturbasierte Abwehr reicht nicht mehr aus – gefragt sind verhaltensbasierte Analysen, Sandboxing, Automatisierung im Threat-Intelligence-Prozess und ein schneller Patch-Turnus.

«KI ist ein Werkzeug – und wie jedes Werkzeug kann es sinnvoll genutzt oder eben missbraucht werden. Entscheidend ist, dass Unternehmen ihre Modelle, Datenpipelines und Betriebsprozesse genauso gut absichern wie klassische IT-Komponenten», betont Christian Koch, Senior Vice President Cybersecurity IT/OT, Innovations & Business Development bei NTT DATA DACH. «Nur mit einem ganzheitlichen Ansatz aus Governance, technischen Massnahmen und Prozessen lässt sich verhindern, dass KI zum Einfallstor wird.»
 

Phishing Ransomware
Anzeige

Neueste Beiträge

Datendiebstahl bei einer Mietbewerbung über gefälschtes Online-Formular
Ein ansprechendes Wohnungsinserat auf einer echten Immobilienplattform führt Interessierte auf eine gefälschte Webseite. Dort sollen sie im Rahmen einer angeblichen Bewerbung zahlreiche persönliche Daten und Dokumente einreichen.
3 Minuten
20. Apr 2026
Schnelle Ordnerliste
Auf die Schnelle eine Liste mit allen Ordnern erstellen?
2 Minuten
20. Apr 2026
iWay Sieger im Telefon-Kundendienst der SIQT-Studie Mobilfunkanbieter 2026
Der Internetanbieter iWay hat in der neuen Studie «Mobilfunkanbieter 2026» des Schweizer Instituts für Qualitätstests SIQT eine starke Leistung erzielt. iWay erreichte in der Kategorie Telefon-Kundendienst den ersten Platz. 
2 Minuten
21. Apr 2026

Das könnte Sie auch interessieren

«Swiss IT-Studie» - KI im Business - Computerworld Ausgabe 1/2026
Am Thema KI kommt niemand mehr vorbei. Das sehen auch die befragten Schweizer Unternehmen. Wo und wie man diese einsetzen könnte und welchen Nutzen damit verbunden ist, da scheiden sich die Geister. Die Schweiz im KI-Dilemma?
2 Minuten
Roboter verstehen natürliche Sprache - Research & Studies
Ein zentrales Hindernis in der Robotik war bislang die fehlende Fähigkeit, natürliche Sprache direkt zu verarbeiten. Forschern von Huawei, der TU Darmstadt und der ETH Zürich haben ein Verfahren entwickelt, Text direkt in Robotik-Befehle zu übersetzen.
2 Minuten
Und dann hat es «VROOM!» gemacht - SAP Hackathon 2026
Dass es die Jury beim Schweizer SAP Hackathon 2026 nicht leicht haben würde, zeigte schon das attraktive Line-up der Firmen. Nach einer Woche in Klausur stellten die neun KI-Teams am letzten Tag ihre frisch entwickelten KI-Prototypen vor - mit Präsentationen, die mit WOW bis VROOM! alle begeisterten. 
3 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige