Roboter erkennen Berührungen – ganz ohne Sensoren!
Wie menschlich können Roboter werden? Mit Gefühlen und der Bedeutung von Gesten haben sie jedenfalls Schwierigkeiten. US-amerikanische Forschende sind in dieser Hinsicht einen Schritt weitergekommen. Ihre Roboter erkennen unter anderem Schläge und Umarmungen, und das ganz ohne Sensoren.
Es gibt immer mehr mögliche Einsatzgebiete für Roboter, und je enger sie mit Menschen zusammenarbeiten, desto eher sind ganz besondere Fähigkeiten gefragt, nämlich Interaktionen zwischen Menschen zu erkennen und richtig zu deuten. Ein gutes Beispiel dafür sind sogenannte Sozial-Roboter, die unter anderem Beziehungen aufbauen sollen. Bislang setzten Wissenschaftlerinnen und Wissenschaftler vor allem Berührungssensoren ein, um der Technik ein angemessenes Gefühl zu vermitteln. Forschende der Cornell University sind einen anderen Weg gegangen. Der funktioniert und ist auch noch günstiger.
Erfolgreich mit dem Kollegen Roboter agieren
Kamera statt Berührungssensoren
Berührungssensoren sind eine gute Technologie, aber bei Robotern sind sie mit einigen Hausforderungen behaftet: Unter anderem sorgen sie für zusätzliches Gewicht und eine umfangreiche Verkabelung. Zudem muss die Oberfläche eine bestimmte Beschaffenheit haben, damit sie sich gut einbetten lassen. Also suchte das Team an der Cornell einen kontraintuitiven Ansatz. Um den Tastsinn zu messen, griffen sie auf das Sehen zurück.
Im Inneren des Roboters haben sie eine USB-Kamera installiert, die Schattenbewegungen von Handgesten auf der Haut des Roboters aufnimmt. Im nächsten Schritt werden diese Schatten von einer Software für maschinelles Lernen eingeordnet. „Indem wir eine Kamera im Inneren des Roboters platzieren, können wir anhand der Schattenbilder erkennen, wie die Person ihn berührt und welche Absicht sie hat“, sagt Yuhan Hu, der an der Studie „ShadowSense: Detecting Human Touch in a Social Robot Using Shadow Image Classification“ beteiligt war. „Wir glauben, dass es hier ein interessantes Potenzial gibt. Denn es gibt viele soziale Roboter, die nicht in der Lage sind, Berührungsgesten zu erkennen.“
Roboter nehmen Menschen an die Hand
Diese Technologie ist entstanden, als die Forschenden aufblasbare Roboter entwickelt haben, die Menschen bei Notfallevakuierungen in Sicherheit bringen könnten. Für die Wissenschaftlerinnen und Wissenschaftler war klar: Ein solcher Roboter müsste in der Lage sein, unter extremen Bedingungen und Umgebungen mit Menschen zu kommunizieren. Folgendes Szenario hatten sie sich beispielsweise überlegt: Ein Roboter führt eine gefährdete Person durch einen lauten, verrauchten Korridor, indem er den Druck der Hand dieses Menschen erkennt.
Der Prototyp des Roboters besteht aus einer weichen, aufblasbaren Blase aus Nylonhaut, die um ein zylindrisches, etwa einen Meter hohes Skelett gespannt ist. Dieses Skelett ist wiederum auf einer mobilen Basis montiert. Unter der Haut des Roboters befindet sich die USB-Kamera, verbunden mit einem Laptop. Auf dem Laptop haben die Forschenden eine Software installiert, die mit einem besonderen Algorithmus arbeitet. Er kann zwischen sechs verschiedenen Berührungsgesten unterscheiden: berühren mit der Handfläche, schlagen, berühren mit zwei Händen, umarmen, zeigen und gar nicht berühren. Seine Genauigkeit liegt zwischen 87,5% und 96%.
Gesten werfen Schatten – und die Software des Roboters berechnet sie
Wie gut der Roboter hängt vor allem von der Beleuchtung ab. Denn seine wichtigste Größe sind Schatten. Diese neue ShadowSense-Technologie ist das jüngste Projekt des Human-Robot Collaboration and Companionship Lab, das von Guy Hoffman, Professor an der Sibley School of Mechanical and Aerospace Engineering, geleitet wird. „Wenn der Roboter dich nur in Form deines Schattens sehen kann, kann er erkennen, was du tust, ohne dass er genaue Bilder von deinem Äußeren macht“, erklärt Hu. „Auf diese Weise erhalten Roboter eine Art physischen Filter, der Menschen vor falschen Reaktionen des Roboters schützt.“ In der Folge fühlen sich Menschen in der Gegenwart des Roboters wohler.
Der Roboter kann zudem so programmiert werden, dass er auf bestimmte Berührungen und Gesten reagiert, zum Beispiel indem er wegrollt oder eine Nachricht über einen Lautsprecher ausgibt. Zusätzlich ist es möglich, die Haut des Roboters in einen interaktiven Bildschirm zu verwandeln. Den Möglichkeiten sind dabei prinzipiell keine Grenzen gesetzt. Der Algorithmus könnte auf weitere Gesten trainiert werden und lernen, die gegebenenfalls mit bestimmten Aufgaben des Roboters verbunden sind.
Übrigens muss der Roboter dafür noch nicht einmal ein Roboter sein. Die ShadowSense-Technologie kann in andere Materialien, wie zum Beispiel Luftballons, eingearbeitet werden – und sie in berührungsempfindliche Geräte verwandeln.
Mehr Beiträge über Roboter:
Ein Beitrag von: