Roboter springt wie Gepard: Ingenieure entwickeln Bahnbrechendes
Ein innovatives Steuerungssystem ermöglicht es vierbeinigen Robotern, über unebenes Terrain zu springen. Mit der Echtzeit-Steuerung ergeben sich neue Möglichkeiten für Such- und Rettungseinsätze.
Oft bekommen Ingenieurinnen und Ingenieure bei Projekten Impulse aus der Natur. Ein Gepard rennt über ein hügeliges Feld und springt im zerklüfteten Gelände über Gräben. Die Bewegung des Tieres sieht mühelos aus, aber einen Roboter dazu zu bringen, sich ähnlich fortzubewegen, war bislang kaum möglich.
In letzter Zeit haben vierbeinige Roboter, die Bewegungen von Geparden und anderen Tieren nachahmen, große Fortschritte gemacht. Aber sie bleiben immer noch weit hinter ihren biologischen Vorbildern zurück, wenn es darum geht, sich schnell durch Terrains mit Höhenunterschieden zu bewegen. Hier blieb es nur bei der Möglichkeit, sich optisch zu orientieren. „Aber die meisten optischen Technologien eignen sich nicht wirklich für die Arbeit mit agilen Robotersystemen“, so Gabriel Margolis vom Massachusetts Institute of Technology (MIT) in Cambridge. Zusammen mit Kolleginnen und Kollegen hat er eine Lösung entwickelt, die Geschwindigkeit und Wendigkeit von Robotern mit Beinen verbessert, wenn sie über Gräben springen.
10-kg-Cobot soll Einstieg in Servicerobotik erleichtern
Zwei unterschiedliche Systeme lenken den Roboter
Die Verwendung von zwei separaten Steuerungen, die zusammenarbeiten, macht das neue System besonders innovativ. Eine Komponente verarbeitet Daten einer Videokamera an der Vorderseite des Roboters in Echtzeit. Das zweite System bereitet alle Informationen auf, um die Bewegung des Roboters zu koordinieren.
Als Steuerung kommt ein Algorithmus zum Einsatz, welcher den Zustand des Roboters in eine Reihe von Aktionen umwandelt, die er ausführen soll. Viele blinde Steuerungen, sprich solche, die Kameradaten nicht mit einbeziehen, sind zwar robust und effektiv, ermöglichen es den Robotern aber nur, über ein zusammenhängendes, bekanntes Gelände zu laufen oder – deutlich langsamer – die Umgebung selbst zu kartieren. Bekannte Algorithmen waren nicht in der Lage, den komplexen sensorischen Input in Echtzeit zu verarbeiten.
Für die Entwicklung ihres Systems verwendeten MIT-Ingenieurinnen und -Ingenieure Elemente robuster, blinder Steuerungen und kombinierten sie mit einem separaten Modul, für das Sehen in Echtzeit. Die Kamera des Roboters nimmt Tiefenbilder der Umgebung auf. Hinzu kommen Daten über den Zustand des Roboterkörpers, also über Gelenkwinkel oder seine Ausrichtung.
Selbstfahrende Lieferroboter liefern in China über eine Million Bestellungen aus
Das „Gehirn“ des Roboters: ein neuronales Netzwerk
Alle Informationen werden an ein neuronales Netz als übergeordnete Steuereinheit weitergeleitet. Es „lernt“ aus Erfahrungen. Dieses neuronale Netz berechnet eine Zieltrajektorie, welche der zweite Controller verwendet, um Drehmomente für jedes der zwölf Gelenke des Roboters zu ermitteln. Dieser Low-Level-Controller ist kein neuronales Netz und stützt sich stattdessen auf eine Reihe präziser physikalischer Gleichungen, die die Bewegung des Roboters beschreiben.
Forschende verwendeten die als „Reinforcement Learning“ bekannte Methode aus Versuch und Irrtum, um den High-Level-Controller zu trainieren. Sie führten Simulationen durch, bei denen der Roboter über Hunderte verschiedener unregelmäßiger Geländeformen lief, und belohnten ihn für erfolgreiche Überquerungen. Mit der Zeit lernte ihr Algorithmus, welche Aktionen die Belohnung maximieren kann.
Erfolgreiche Tests des Roboters im Gelände
Margolis‘ Team testete das System am MIT-Mini-Gepard, einem leistungsstarken, wendigen Roboter, der schon früher von Sangbae Kim, Professor für Maschinenbau am MIT, gebaut worden war. Die Forschenden errichteten ein physisches, lückenhaftes Gelände mit einer Reihe von Holzplanken und testeten ihr Kontrollschema mit dem Mini-Geparden. Ihr System übertraf andere Systeme, die nur einen Controller verwenden, und der Mini-Gepard überquerte 90% seines Weges erfolgreich.
„Eine Neuheit unseres Systems ist, dass es den Gang des Roboters anpasst“, berichtet Margolis. „Wenn ein Mensch versuchen würde, über eine sehr große Lücke zu springen, würde er vielleicht zunächst sehr schnell laufen, um Geschwindigkeit aufzubauen, und dann beide Füße zusammennehmen, um einen wirklich kraftvollen Sprung über die Lücke zu machen. Auf dieselbe Weise kann unser Roboter den Zeitpunkt und die Dauer seiner Fußkontakte anpassen, um das Gelände besser zu überqueren.“
Die Forscher konnten zwar nachweisen, dass ihr Kontrollschema im Labor und im Testgelände funktioniert, aber sie haben noch einen langen Weg vor sich, bevor sie das System in der realen Welt einsetzen können. Im Unterschied zu anderen Methoden der Steuerung benötigt ihr System vorab keine Daten zum Gelände. Der Roboter könnte sich etwa bei einem Notfalleinsatz durch den Wald bewegen oder Treppen steigen, um bei Naturkatastrophen Menschen mit Medikamenten zu versorgen.
Mehr zum Thema Roboter:
Ein Beitrag von: