Roboter verstehen natürliche Sprache
Research & Studies
Ein zentrales Hindernis in der Robotik war bislang die fehlende Fähigkeit, natürliche Sprache direkt zu verarbeiten. Steuerungsbefehle mussten in strukturierter Maschinensprache formuliert oder über spezialisierte Schnittstellen programmiert werden – ein aufwendiger Prozess, der Fachwissen voraussetzt. Entsprechend blieb der Einsatz vieler Systeme auf industrielle Umgebungen beschränkt.
Forschende aus dem Huawei Noah’s Ark Lab, der Technische Universität Darmstadt sowie der ETH Zürich haben ein Verfahren entwickelt, mit dem sich textbasierte Anweisungen automatisiert in ausführbare Robotik-Befehle übersetzen lassen. Grundlage ist ein grosses Sprachmodell (LLM), das mit dem verbreiteten Robot Operating System (ROS) kombiniert wird. Ziel ist es, die Interaktion mit Robotern zu vereinfachen. Anstelle spezialisierter Programmierung sollen künftig natürliche Spracheingaben ausreichen, um Roboter in Haushalten, Büros oder öffentlichen Umgebungen zu steuern.
Technisch zerlegt das System komplexe Anweisungen in einzelne Handlungsschritte und überführt diese in ROS-kompatible Befehle. Eine Eingabe wird in sequenzielle Teilaktionen übersetzt, die der Roboter nacheinander ausführt. Laut den Forschenden ermöglicht die Kombination aus LLM und Robotik-Framework eine flexiblere Form sogenannter «verkörperter Intelligenz». Das System kann neue Fähigkeiten durch Nachahmung erlernen und seine Ausführung über Feedback kontinuierlich optimieren. Die Implementierung wurde als Open Source veröffentlicht und in Tests mit unterschiedlichen Robotertypen erprobt.