Roman Yampolskiy in Zürich 27.05.2019, 06:48 Uhr

«Superintelligenten Systemen fehlt der gesunde Menschenverstand»

Künstliche Intelligenz wird die IT-Security umpflügen. Sowohl auf Hacker-Seite als auch seitens der Verteidiger. Aber das ist nur der Anfang: Wenn «Superintelligenz» ins Spiel kommt, werden die Karten nochmals neu gemischt.
Roman Yampolskiy, Professor für Computerwissenschaften an der University of Louisville, erforscht die Auswirkungen von Superintelligenz auf die IT-Security
(Quelle: Jens Stark/NMGZ)
Das Zeitalter der «Superintelligenz» steht bald vor der Tür. So lautet die Kernaussage des Vortrags von Roman Yampolskiy, ausserordentlicher Professor für Computerwissenschaften an der University of Louisville im US-Bundesstaat Kentucky, den er anlässlich der Veranstaltung «IT-Security Inside» des IT-Sicherheitsspezialisten Avantec in Zürich gehalten hat. Mit «Superintelligenz» ist jener Punkt gemeint, an dem die künstliche die menschliche Intelligenz überholt haben wird. «Ich spreche von Systemen, die in jeder Hinsicht einem Menschen überlegen sind», erklärt der Informatikwissenschaftler.
Die Zeit der Superintelligenz bricht zudem laut Yampolskiy nicht erst in einer fernen Zukunft an, sondern es könnte schon bald soweit sein. Zwar verzichtet er darauf, eine konkrete Jahreszahl zu nennen, zitiert aber eine Prognose des bekannten Futurologen und technischen Leiter bei Google, Raymond Kurzweil, der davon ausgeht, dass zwischen 2023 und 2045 der Punkt der technologischen Singularität erreicht sein könnte, wenn also die weitere technologische Entwicklung vom Menschen nicht mehr beeinflusst werden kann.
Eine steile These, die Yampolskiy hier präsentiert. Mehrere Gründe führt er auf, warum es durchaus im Rahmen des Möglichen liege, dass wir es in Kürze mit Superintelligenz zu tun haben werden. Milliarden würden zur Zeit in entsprechende Forschung gesteckt, und zwar sowohl diesseits als auch jenseits des Atlantik. Laut Yampolskiy sind derart hohe Forschungsgelder bislang lediglich in Feldern wie der Physik Gang und Gäbe, nicht aber in der Computerwissenschaft. Neben staatlichen Instituten würden auch die grossen Player aus dem Silicon Valley wie etwa Google Milliarden in entsprechende Forschung fliessen lassen. «Auch einiges an Humankapital ist hier involviert. Ein paar der gescheitesten Köpfe weltweit widmen sich entsprechender wissenschaftlicher Vorhaben», meint er.
Zudem würden schon heute Computer in vielen auch kognitiven Bereichen den Menschen alt aussehen lassen. Yampolskiy erinnert hier nur an die verschiedenen Herausforderungen, bei denen Maschinen den besten Experten und Könner geschlagen haben, angefangen von Schach über das Ratespiel Jeopardy bis hin zum Brettspiel Go. Darüber hinaus geben in vielen Lebensbereichen Computer- und Software-gestützte Systeme den Ton an, wie etwa im Aktienhandel oder bei der Steuerung des Flugverkehrs. «Und dabei handle es sich nicht einmal um intelligente, geschweige denn superintelligente Systeme, sondern vergleichsweise dumme Softwareprogramme», sagt er. «Selbst für diese Systeme sind wir nicht smart und fähig genug, um manuell wieder die Kontrolle zu übernehmen». Wenn es also der Technologie in so vielen Bereichen gelungen ist, menschliche Fähigkeiten zu toppen, warum sollte ein superintelligentes System nicht im Rahmen der Möglichkeiten stehen, argumentiert er.

Ohne «Common Sense»

Yampolskiy zeigt während seines Vortrags auch Unzulänglichkeiten von Superintelligenz auf und spricht in diesem Zusammenhang vom «Paradox der Singularität». «Ein superintelligentes System mag zwar dem menschlichen Hirn in vielen Aufgaben und Herausforderungen überlegen sein, es fehlt ihm aber der sogenannte gesunde Menschenverstand», gibt er zu bedenken. «Was passiert also,wenn wir ein solch mächtiges System bauen, dem der Common Sense fehlt?», fragt sich Yampolskiy und wendet ein, dass wir es mit einigen Problemen und Fehlleistungen zu tun bekommen werden.
Nach Meinung von Roman Yampolskiy werden superintelligente Machinen nicht über etwas wie gesunden Menschenverstand verfügen
Quelle: Jens Stark/NMGZ
Diese Probleme zu erkennen und gegebenfalls einzudämmen, sei denn auch Hauptschwerpunkt seiner Forschung, so Yampolskiy. «Dabei haben wir zunächst einmal eine Taxonomie entwickelt, um aufzeigen zu können, wo die Fehlentwicklungen auftreten können. Dazu gehören beispielsweise Softwarebugs oder Fehler im Software-Engineering», führt der Forscher aus und verweist auf eine weitere Fehlerquelle im Rahmen des Maschine Learnings. Diesen Systemen könne nämlich auch etwas Falsches beigebracht werden, mit verheerenden Folgen.
Besonderes Augenmerk legt Yampolskiy und sein Team von Wissenschaftler, in die Möglichkeit, dass die superintelligenten Systeme in falsche Hände geraten könnten. Es sei fast nicht zu verhindern, dass sich auch Cyberkriminelle dieser Rechner für ihre Machenschaften bemächtigten. Am meisten Angst hat Yampolskiy davor, dass auch KI künftig als Service angeboten werden wird, so wie es heute schon Software as a Service oder Infrastructure as a Service gibt. «Mit AI als Service kann faktisch jeder zum Übeltäter werden», meint er. «Was sie sich an Kriminalität und Vandalismus vorstellen können, ist dann möglich», so seine Befürchtung. «Ich möchte hier aber nicht zu sehr ins Detail gehen, um Sie nicht auf falsche Ideen zu bringen».

Deep Fakes als erste Anwendung

Katze oder Hund? Nur wenige veränderte Pixel können den Betrachter an der Nase herumführen.
Quelle: Google Brain
Doch dann bringt Yampolskiy doch ein Beispiel, um zu illustrieren, was schon heute mit Künstlicher Intelligenz möglich ist, das Einiges an Missbrauchspotential hat. So lassen sich schon heute rein vom Computer generierte Fotos von menschlichen Gesichtern erstellen. Die aus dem Rechner stammenden Antlitze sehen so real aus, dass kaum noch jemand erkennen kann, dass es sich dabei um Fälschungen handelt. Solche Deep Fakes eröffnen laut Yampolskiy dem Identitätsbetrug Tür und Tor.
Daneben sei es heute möglich, Gesichtserkennungssysteme aufs Glatteis zu führen. Yampolskiy präsentierte zwei Bilder, die sich nur um wenige Pixel unterscheiden, aber eine Maschine dazu bringen könnten, das Geschlecht des Abgebildeten oder der Abgebildeten falsch zu interpretieren. Auch Menschen könnten mit geringen Veränderungen an der Foto getäuscht werden. Hier gibt es bereits Versuche und Forschungen, bei denen das Bild einer Katze geringfügig geändert wird, so dass es Vielen wie das Konterfei eines Hundes vorkommt.



Das könnte Sie auch interessieren