Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

Computer-Vision-Systeme sind manipulierbar

Computer-Vision-Systeme auf der Basis von Künstlicher Intelligenz (KI) lassen sich so manipulieren, dass sie genau das sehen, was der Hacker will, oder umgekehrt, so ein Team um Tianfu Wu von der North Carolina State University.
© (Quelle: Lucy Prior, pixabay.com)

Sie können absichtlich dazu gebracht werden, Dinge, die Menschen mit Leichtigkeit erkennen, zu übersehen. So könnte beispielsweise jemand die Fähigkeit einer KI manipulieren, Verkehrszeichen, Fussgänger oder andere Autos zu erkennen, was zu verheerenden Folgen für autonome Fahrzeuge führen würde. Ein Hacker könnte auch einen Code auf einem Röntgengerät installieren, der das auswertende KI-System zu falschen Diagnosen kommen lässt.

Objekte plötzlich unsichtbar

Das Team hat nachgewiesen, dass die neuentwickelte Technik namens «RisingAttacK» alle gängigen Computer-Vision-Systeme mit KI effektiv manipulieren kann. Dabei handelt es sich um so genannte «adversarial attacks» (feindliche Angriffe), bei denen jemand die Daten manipuliert, die in ein KI-System eingespeist werden, um zu kontrollieren, was das System in einem Bild sieht oder nicht sieht.

«Wir wollten einen effektiven Weg finden, KI-Bildverarbeitungssysteme zu hacken, um Wege zu finden, sie genau davor zu schützen», sagt Wu. Das sei extrem wichtig, da diese Systeme häufig in Bereichen eingesetzt würden, die die Gesundheit und Sicherheit von Menschen beeinträchtigen - von autonomen Fahrzeugen über Gesundheitstechnologien bis hin zu Sicherheitsanwendungen

Wenig Änderungen am Bild

RisingAttacK besteht aus einer Reihe von Vorgängen, deren Ziel es ist, mit möglichst wenigen Änderungen an einem Bild, die menschlichen Betrachtern kaum oder gar nicht auffallen, die KI zu täuschen. Das Programm analysiert alle visuellen Merkmale des Bildes und ermittelt, welche davon für das Erreichen des Angriffsziels am wichtigsten sind. Anschliessend berechnet RisingAttacK, wie empfindlich die KI auf Änderungen der Daten der wichtigsten Merkmale reagiert.

«Das erfordert zwar eine gewisse Rechenleistung, ermöglicht es uns jedoch, sehr kleine, gezielte Änderungen an den wichtigsten Merkmalen vorzunehmen. Das Endergebnis ist, dass das manipulierte Bild für den Menschen genauso aussieht wie das Original, für die KI sind es jedoch zwei stark unterschiedliche Motive. Wenn ein Auto gezeigt wird, kann der Mensch es sehen, die KI jedoch nicht», unterstreicht Wu. Handele es sich um ein System in einem autonom fahrenden Auto, würde es ein vorausfahrendes oder entgegenkommendes Auto nicht sehen. «Jetzt wollen wir Techniken entwickeln, mit denen sich solche Angriffe erfolgreich abwehren lassen», so Wu. (pressetext.com)

Forschung
Anzeige

Neueste Beiträge

Roboter fühlen bald zuverlässig wie Menschen
Forscher der University of Cambridge haben eine sensible künstliche Haut entwickelt, die Robotern einen Tastsinn verleiht, der dem menschlichen sehr nahe kommt.
3 Minuten
9. Mär 2026
Nationale Konferenz für Ingenieurberufe fordert bessere Koordination - National Conference of Engineers
Der Bedarf an Ingenieurinnen und Ingenieuren in der Schweiz bleibt hoch und dürfte weiter steigen. Zu diesem Schluss kamen rund 40 Vertreterinnen und Vertreter aus Wirtschaft, Wissenschaft, Verwaltung und Verbänden an der ersten National Conference of Engineers, die Anfang März an der Hochschule Luzern stattfand.
3 Minuten
E-Voting-Panne im Kanton Basel-Stadt
Elektronisch abgegebene Stimmen in Basel-Stadt werden zur Ermittlung des Abstimmungsergebnisses vom 8. März 2026 nicht gezählt. Das betrifft die Stimmen der Auslandschweizer sowie angemeldete Stimmberechtigte mit Behinderungen.
2 Minuten
9. Mär 2026

Das könnte Sie auch interessieren

Roboter sollen Feuerwehrleute künftig ersetzen
Ingenieure von Cyborg Dynamics Engineering und der Griffith University haben mobile unbemannte Feuerlöschroboter auf Basis Künstlicher Intelligenz (KI) entwickelt, die autonom gegen Brände vorgehen.
3 Minuten
Die meisten KI-Betrugsfälle waren 2025 Deepfakes - Cybersecurity
Die Tech- und Cybersecurity-News-Website Cybernews.com hat die AI Incident Database analysiert und festgestellt, dass Deepfakes im Jahr 2025 die häufigste Art von KI-Vorfällen waren.
2 Minuten
Chip macht autonome Autos reaktionsschneller
Forscher der University of Hong Kong, der Beihang University, weitere Kollegen aus China und Saudi-Arabien sowie von der Universität in Cambridge haben einen neue Hardware in Form eines Chips zur schnelleren Reaktion für autonom fahrende Autos und Roboter entwickelt.
2 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige