Edge Computing 25.11.2021, 09:24 Uhr

KI für den Netzwerkrand

Dem Edge Computing gehört die Zukunft. Am IBM Forschungslabor in Rüschlikon wird derzeit daran gearbeitet, auch KI-Anwendungen mit Gerätschaften am Netzwerkrand zu ermöglichen.
Robert Haas vom IBM-Forschungslabor Rüschlikon spricht dem Edge Computing das Wort: «Es macht mehr Sinn, Berechnungen dort auszuführen, wo das Geschehen ist».
(Quelle: Jens Stark/NMGZ)
Das Internet der Dinge (Internet of Things; IoT) wächst rasant. Bis 2025 soll jede Person weltweit durchschnittlich drei IoT-Geräte besitzen, die Daten von 80 Zettabyte genieren werden. Aber auch intelligenter wird das IoT. Wichtigste Entwicklung dabei: Die dort agierenden Gerätschaften sollen künftig nicht nur Daten sammeln, etwa durch Sensoren, sondern die akkumulierten Informationen auch gleich vor Ort verarbeiten.
Die Entwicklung rund um dieses sogenannte Edge Computing ist denn eines der vielen Themen, das die Forschenden am IBM-Labor in Rüschlikon bei Zürich derzeit beschäftigt. Wie Robert Haas, Leiter des Bereichs Cloud bei IBM Research Europe — Zurich an einer Presseveranstaltung betonte, sei es wichtig, dass das, was an den Rändern von Computernetzen so gerechnet werde, auch dort bleiben könne.
Und er nennt drei Gründe, warum die lokale Datenverabeitung so wichtig sein wird. So ist ihm zufolge der Energieverbrauch geringer, wenn die gesammelten Infos gleich im Edge-Device verarbeitet werden, statt die Daten zur Berechnung zuerst in ein Rechenzentrum oder in eine Cloud zu schicken.  «Die Energie, die wir verbrauchen, um Daten hin und her zu schicken, ist um Faktoren höher als wenn sie vor Ort verarbeitet werden», argumentiert Haas. Daneben ist die lokale Verarbeitung aus Datenschutzgründen vorteilhaft. Heikle Daten bleiben dann nämlich vor Ort «und werden nicht über das ganze Netzwerk verteilt», wie Haas weiter ausführt. Schliesslich gibt es Performance-Gründe, um auf Edge Computing zu setzen. So sei beispielsweise die Erkennung und sofortige Behebung eines Fehlers vor Ort effizienter, als wenn dieser erst viel später nach einer zentralen Verarbeitung in einem Rechenzentrum erkannt werde.

KI muss effizienter und intelligenter werden

Allerdings gibt es auch Probleme in Sachen Edge Computing. So lassen sich KI-Modelle (Künstliche Intelligenz) derzeit mit ihren  zu trainierenden Billionen von Parametern noch nicht eins zu eins auf den Gerätschaften am Netzwerkrand ausführen. Diese Modelle etwa für Spracherkennung oder Textanalysen und -zusammenfassungen grasen heute laut Haas noch das ganze Internet ab und benötigen gigantische Ressourcen, um ihre Aufgaben zu erledigen. Haas stellt daher die etwas ketzerische Behauptung auf, dass KI derzeit noch einem Dinosaurier gleicht.
Neben dem grossen Ressourcenverbrauchen, der benötigt werde, seien neuronale Netze nicht einmal besonders schlau, meint Haas. Edge-Computing zwinge die Branche daher dazu, KI effizienter und intelligenter werden zu lassen. Und hieran arbeitet man offenbar am IBM-Forschungslabor. Haas präsentiert als eines der Beispiele einen analogen für KI konzipierten In-Memory-Computing-Chip der von IBM entwickelt wird. Dieser ermöglicht sowohl die Speicherung als auch Verarbeitung der Daten direkt auf dem Halbleiter. Gemäss Haas nähert sich die Funktionsweise damit derjenigen unseres Gehirns an. Auch dort werden die Informationen nicht in einer Gehirnhälfte gespeichert und in der anderen verarbeitet sowie nicht ständig hin und her geschaufelt, sonder vor Ort verarbeitet. Der von IBM gezeigte In-Memory-Chip erlaube unter anderem eine wesentlich energieeffizientere Verarbeitung. Haas spricht von 10 Mal mehr Operationen pro Watt als mit einer herkömmlichen GPU (Graphical Processing Unit). «Und dabei handelt es sich erst um einen Prototypen, der noch optimiert werden kann», sagt Haas.

Gestauchte AI

In einer anschliessenden Diskussionsrunde berichtete Abdel Labbi, Leiter des Bereichs Data & AI Platforms bei IBM Research Europe — Zurich davon, wie die bereits erwähnt sperrigen und Ressourcen-hungrigen KI-Modelle für die Verarbeitung auf Edge-Geräten mit limitierten Speicherungs- und Berechnungsmitteln zurechtgestutzt werden können. Dabei werde ein «Model Compression» genanntes Verfahren verwendet, so Labbi. Hierbei werden ihm zufolge gewisse Parameter weggelassen und das KI-Modell nun ohne diese Parameter neu trainiert. So wird ermittelt, wie viel weggelassen werden kann, ohne das Ergebnis über Gebühren zu beeinträchtigen.
Abdel Labbi vom IBM Forschungslabor Rüschlikon erklärt, mit welchen Kniffen KI-Modelle auch auf Edge-Computing-Geräten ausgeführt werden können
Quelle: Jens Stark/NMGZ
Labbi berichtet in diesem Zusammenhang vom Gemeinschaftsforschungsprojekt «TinyML and Efficient Deep Learning» von IBM und dem MIT (Massachusetts Institute of Technology). «Damit lassen sich zum Beispiel Deep-Learning-Modelle zur Bilderkennung auf Geräten installieren, die weniger als ein Megabyte RAM besitzen», führt er aus. Natürlich verliere man dabei ein wenig an Präzision, räumt Labbi ein, aber die Ergebnisse seien für den Verwendungszweck durchaus ausreichend.

Anwendungen für solche AI-bestückten Edge-Geräte gebe es in Zukunft viele, verspricht denn auch Haas. Präsentiert an dem Event wurden beispielsweise Drohnen, die kleinste Risse an Brückenpfeilern selbstständig erkennen (Computerworld berichtete) oder auf Flughäfen die Lande- und Startbahnen nach Hindernissen absuchen können sowie einen mit KI bestückten chemischen Sensor, der Flüssigkeiten analysieren und testen kann. «Wieviele Flughäfen und Brücken gibt es weltweit, die von diesen Systemen untersucht werden können?», fragt Haas und verweist damit auf einen riesigen Markt, der auf solche intelligente Edge-Devices warte.



Das könnte Sie auch interessieren