03.11.2016, 14:31 Uhr

Googles AI entwickelt eigenständig Verschlüsselung

Wenn Technik sich selbst absichert: Forscher von Googles Deep-Learning-Projekt «Google Brain» haben ihre AI nun eigenständig neue Verschlüsselungsverfahren entwickeln lassen.
Verschlüsselungsverfahren bilden die Grundlage der meisten IT-Sicherheitskonzepte. Sie ermöglichen den sicheren Austausch von Daten im Netz und sorgen dafür, dass sensible Dokumente nicht in die falschen Hände gelangen. Nun haben die Google-Forscher Martin Abadi und David G. Andersen des Deep-Learning-Projekts «Google Brain» eine neue Verschlüsselungsmethode entwickelt beziehungsweise entwickeln lassen. Die Forscher haben verschiedene neuronale Netze damit beauftragt, eine abhörsichere Kommunikation aufzustellen. Im Detail sah das Experiment vor, dass die neuronalen Netze «Alice» und «Bob» sich gegenseitig geheime Nachrichten zusenden, während das dritte Netz «Eve» die versendeten Nachrichten abfangen sollte. Informationen zu kryptografischen Methoden haben die Forscher den neuronalen Netzen dabei nicht auf den Weg gegeben. Alle entstandenen Verschlüsselungsverfahren sind damit gänzlich auf Basis von Googles AI entstanden. Wie die Forscher in ihrem Paper festgehalten haben, war der Nachrichtenaustausch für Eve zunächst recht einfach zu überwachen. Nach 15'000 versendeten Nachrichten wendete sich allerdings das Blatt, als es Alice und Bob gelang, eine wirkungsvolle Verschlüsselung auf die Beine zu stellen. Fortan übertrugen die Netzwerke ihre Nachrichten nur noch verschlüsselt nach dem Ende-zu-Ende-Prinzip. Eve war dadurch nicht mehr in der Lage, die Kommunikation zu überwachen. Immerhin: Da es sich bei den Nachrichten um einen simplen Binärcode, bestehend aus Nullen und Einsen, handelte, konnte Eve wenigstens die Hälfte der Nachrichten auf gut Glück erraten. Nächste Seite: Ist das Ganze Praxis-tauglich?

Verschlüsselung taugt nicht für die Praxis

Praxis-tauglich ist die Verschlüsselung durch neuronale Netze indessen nicht. So konnten die Forscher beispielsweise nicht nachvollziehen, welche genaue Methode von Alice und Bob verwendet wurde, da lediglich das Endresultat der Kommunikation vorlag. Entsprechend ist es auch nicht möglich, die Sicherheit der neuen Methode zu verifizieren. Dennoch belegt das Experiment der Google-Forscher, dass neuronale Netze auch für die Entwicklung von Sicherheitstechnologien einsetzbar sind. Da maschinelles Lernen aber ohnehin noch in den Kinderschuhen steckt, wird man in Zukunft bestimmt noch mehr von neuronal-gestützter Kryptographie hören. Der vollständige, 15-seitige Bericht der Forscher ist frei als PDF zugnglich.



Das könnte Sie auch interessieren