Eset-Studie 23.08.2018, 07:36 Uhr

Falsche Sicherheit durch KI?

Der IT-Security-Spezialist Eset warnt vor zu viel Vertrauen in die künstliche Intelligenz bei der Bekämpfung von Cyberkriminellen. IT-Verantwortliche könnten sich schnell in falscher Sicherheit wiegen.
Für Eset-CTO Juraj Malcho ist es gefährlich, im Kampf gegen Cyberkriminelle nur auf die Technik zu setzen
(Quelle: pd)
In letzter Zeit ist viel über die Rolle von Künstlicher Intelligenz (KI) in der Cybersicherheit berichtet worden. Auch Computerworld hat die Möglichkeiten des KI-Einsatzes in der IT-Security aufgezeigt. Der europäische Sicherheitsexperte Eset ist der Einstellung der Unternehmen zum Thema interessiert und deswegen 900 IT-Entscheider in den USA, Grossbritannien und Deutschland zu ihrer Einstellung zu KI und ML (Maschine Learning) befragt.

Allheilmittel KI?

Die Ergebnisse zeigen, dass die IT-Entscheidungsträger in den USA die Technologien im Ländervergleich am ehesten als Allheilmittel zur Lösung ihrer Cybersicherheits-Herausforderungen betrachten (82 Prozent). Etwas anders die europäischen Kollegen: In Grossbritannien sehen dies nur 67 Prozent so, in Deutschland sind es 66 Prozent. Die Mehrheit der Befragten ist der Meinung, dass KI und ML ihrer Organisation helfen würden, Bedrohungen schneller zu erkennen und darauf zu reagieren (79 Prozent) und Kompetenzlücken aufgrund von Fachkräftemangel zu beheben (77 Prozent).
Für Juraj Malcho, Chief Technology Officer bei Eset, ist die Einstellung der IT-Verantwortlichen aber zu blauäugig. «Es ist beunruhigend zu sehen, dass der Hype um KI und ML so viele IT-Entscheider – vor allem in den USA – dazu veranlasst, die Technologien als das Allheilmittel für Cybersicherheitsherausforderungen zu betrachten», gibt er zu bedenken. Für viele Dinge gebe es aber keine einfache Lösung. Das gelte besonders für den Cyberspace, wo sich die Bedingungen binnen weniger Minuten verändern könnten. «In der heutigen Geschäftswelt wäre es unklug, sich nur auf eine Technologie zu verlassen, um eine widerstandsfähige Cyberabwehr aufzubauen», meint Malcho deshalb. «Vielmehr ist es wichtig, dass IT-Entscheidungsträger erkennen, dass ML zweifellos ein wichtiges Instrument im Kampf gegen Cyberkriminalität ist, aber eben nur ein Teil der gesamten Cyber-Sicherheitsstrategie eines Unternehmens sein sollte», warnt der Eset-CTO.

Kenne den Unterschied zwischen KI und ML

Die vielerorts synonyme Verwendung von ML und KI führt zu Verwirrung. Dies bestätigt auch die Eset-Studie: Nur 53 Prozent der IT-Entscheider sagen, dass in ihrem Unternehmen die Unterschiede zwischen beiden vollständig verstanden würden.
Für Eset-CTO Malcho ist diese fehlende Differenzierung schlecht für die IT-Security in Unternehmen. «Wahr ist, dass es in der Cybersicherheit wie überall sonst noch keine echte, vollständige KI gibt. Der Hype um die Neuheit von ML ist zudem komplett irreführend, denn die Technologie an sich wird schon lange eingesetzt», erklärt er.
Fakt ist: ML ist gemäss Malcho von unschätzbarem Wert für die Wahrung von Cybersicherheit, insbesondere beim Erkennen von Malware. Als Schutzlösung funktioniert es so: Sie basiert auf grossen Datenmengen und Erfahrungen aus der Vergangenheit, bestehend sowohl aus als gutartig gekennzeichneten als auch bösartigen Materialsammlungen. Das ist die Grundlage, auf der ML zwischen «gut» und «schlecht» unterscheidet. So kann es potenzielle Bedrohungen für Benutzer schnell analysieren, identifizieren und Malware abwehren.

ML hat Grenzen

Für Unternehmen sei es jedoch wichtig, die Grenzen von ML zu verstehen. Zum Beispiel müsse auch bei ML immer noch ein Mensch die Erstklassifizierung durchführen, um potenziell bösartige Proben zu untersuchen und vor allem die Anzahl der Fehlalarme zu reduzieren. Denn ML-Algorithmen haben laut Eset  einen engen Fokus und arbeiten mit Regelwerken. Hacker lernen aber weiter – ein kreativer Cyberkrimineller kann Szenarien einführen, die für ein ML-System komplett neu sind und können es somit überlisten. Algorithmen des maschinellen Lernens können auf vielfältige Weise irregeführt werden und Hacker können dies ausnutzen, indem sie bösartigen Code erstellen, den ML dann fälschlicherweise als gutartiges Objekt klassifiziert.

«Seit 1995 setzen wir maschinelles Lernen als Teil unseres Arsenals  gegen Cyberkriminelle ein. Aber das allein reicht nicht aus. Indem Unternehmen sich über die Grenzen von ML informieren, können sie einen strategischeren Ansatz für den Aufbau einer robusten Verteidigung wählen. Mehrschichtige Lösungen, kombiniert mit talentierten und qualifizierten Mitarbeitern, werden der einzige Weg sein, den Hackern immer einen Schritt voraus zu sein, wenn sich die Bedrohungslandschaft weiterentwickelt", lautet daher die Schlussfolgerung von Malcho.



Das könnte Sie auch interessieren