Forscher diskutieren über die Zukunft der Robotik
Intelligente Roboter, die greifen, manipulieren, planen und simulieren – die Welt der Technik verändert sich. Auf einer Fachkonferenz in Freiburg diskutieren Forscher über das Potenzial, Lösungsansätze für Probleme und aktuelle Projekte.
Es scheint kaum noch einen Bereich zu geben, dem nicht eine Durchdringung durch Roboter bevorsteht. Während sich ihr Einsatz in der Industrie verfeinert und auf neue Anwendungsbereiche ausweitet, finden Roboter gleichzeitig zunehmend Einzug in der Landwirtschaft, werden als Lösung für die Pflege diskutiert und könnten auch das Verkehrswesen revolutionieren. Diese Vielfalt ist natürlich mit zahlreichen Forschungsgebieten verbunden, die eine Gruppe internationaler Wissenschaftler derzeit auf einem Fachkongress an der Universität Freiburg diskutiert.
Bei „Robotics: Science and Systems 2019 (RSS)“ steht eine lange Reihe an Themen auf der Agenda der drei Kongresstage. Angefangen bei übergreifenden Bereichen wie der visuellen Wahrnehmung von Robotern, über ihre Fähigkeit sanft zu greifen, bis hin zu kognitiver Robotik, Humanoiden, Animaloiden und Spezialthemen wie der bio-inspirierten Robotik. Die RSS soll einen intensiven Austausch der Fachwelt ermöglichen, über Vorträge, Ausstellungen und Workshops.
Wie lernen autonome Roboter ihr Verhalten?
Wissenschaftler der amerikanischen Stanford University stellten zum Beispiel ihr aktuelles Forschungsprojekt vor. Sie suchen nach Wegen, intelligente Roboter möglichst effizient zu trainieren. Denn natürlich muss auch bei einem vermeintlich autonom agierenden Roboter zunächst eingespielt werden, wie er sich in diversen Situationen verhalten soll – nämlich genau so, wie es der Mensch von ihm erwartet. Doch interessanterweise wünschen sich viele Menschen von Robotern ein Verhalten, das besser ist als ihr eigenes, beispielsweise ein autonomes Fahrzeug soll unter Umständen weniger aggressiv fahren als es sein Besitzer täte. Derzeit testen die Forscher daher ein neues Trainingsmodell. Dafür kombinieren sie reale menschliche Demonstrationen – der Mensch macht dem Roboter also vor, was er tun soll – mit Fragen, die der Roboter stellt, damit er das gesehene Verhalten besser einordnen kann.
Warum die Mühe, wenn es doch auch möglich ist, ein Programm zu schreiben, das Anweisungen erteilt? Das kann der Elektrotechniker Erdem Biyik aus Stanford erklären. Die Herausforderung bestehe nämlich darin, genau zu erklären, was ein Roboter tun soll, insbesondere wenn die Aufgabe komplex ist. Häufig findet die Maschine einen schnelleren Weg, um das festgelegte Ziel zu erreichen. Biyik wollte zum Beispiel einen Roboterarm so programmieren, dass er einen Zylinder ergriff und in der Luft hielt. „Ich sagte, die Hand muss geschlossen sein, das Objekt muss eine Höhe von mehr als X haben und die Hand sollte sich auf derselben Höhe befinden“, sagt Biyik. „Der Roboter rollte das Zylinderobjekt an die Tischkante, schleuderte es nach oben und schlug dann mit der Faust daneben in die Luft.“ Alle Bedingungen waren also erfüllt, und doch war die Programmierung definitiv anders gedacht.
Roboter können vieles von Pflanzen lernen
Spannend ist auch das Herantasten an die Growing Robots, bei dem Roboter Bewegung – ja, Bewegung – von Pflanzen lernen. Die schleudern nämlich Samenkapseln durch die Luft oder hangeln sich als Lianen im tropischen Regenwald von Baum zu Baum. Während sie einen neuen Halt suchen und quasi ihre Fühler ausstrecken, überwinden sie sogar größere Distanzen. Erst wenn sie einen neuen Baum gefunden haben, wird der Stengel weich. Andere bilden regelrechte Haken an der Spitze ihrer Triebe.
Die Wissenschaftler des EU-Projekts GrowBot, das sich im Stadium des Ideensammels befindet, wollen sich daher zunächst auf Kletterpflanzen und Lianen konzentrieren. Die Projektleiterin Barbara Mazzolai vom Italian Institute of Technology (IIT) brachte Ergebnisse vom Projekt Plantoid mit, das sie in den vergangenen Jahren betreut hat. Der geschaffene Roboter konnte sich ins Erdreich graben – wie die Wurzel einer Pflanze. Dafür fügte er neues Material hinzu und nutzte unter anderem Sensoren für Berührung, Temperatur und Tastsinn. Einsetzbar wäre solch eine Technik nicht nur in der Landwirtschaft, sondern auch beim Bau.
Roboter brauchen eigene Augen
In Freiburg wird nicht nur deutlich, wo die Robotik aktuell steht, sondern auch, wie viel Hintergrundarbeit notwendig ist, um Roboterfunktionen zu optimieren. Ein amerikanischer Forschungsverbund hat zum Beispiel einen neuen Filter entwickelt (PoseRBPF), mit dem sich 6D-Posen von Objekten in Videos besser verfolgen lassen. 6D bedeutet, dass neben den drei Raumdimensionen auch drei Rotationswinkel einbezogen werden. Falls es gelingt, Robotern die Verfolgung von Objekten zu erleichtern, hilft ihnen diese Fähigkeit unter anderem dabei, wenn sie navigieren oder Objekte in einem Raum verschieben sollen.
Weitere Beiträge zum Thema Robotik:
Ein Beitrag von: