Temporekord: Diese KI steuert Hunderte von Robotern viermal schneller
Hunderte von Robotern flitzen in einem riesigen Roboterlager hin und her – und stoßen dabei nicht gegeneinander. Das ist möglich dank eines neuen neuronalen Netzwerks, das Forschende vom Massachusetts Institute for Technology (MIT) entwickelt haben. Die künstliche Intelligenz (KI) plant die Roboter in Millisekunden und ist besonders effizient, weil sie sich auf die größten Problembereiche konzentriert.
Im Bereich der Lager-Logistik werden zunehmend Roboter eingesetzt und digital gesteuert. Das hat viele Vorteile. Die elektronischen Mitarbeitenden sind zum Beispiel schnell, fleißig, werden nicht müde und stehen in ausreichender Stückzahl zur Verfügung. Allerdings ist es eine komplexe Aufgabe, eine große Zahl an Robotern zu steuern. Denn die Programme, die zur Berechnung der „Laufwege“ bereitstehen, können mit den enormen Geschwindigkeiten im Lager oder in der Produktion kaum noch mithalten. Wissenschaftler und Wissenschaftlerinnen vom MIT haben daher nach einer Möglichkeit gesucht, die digitale Steuerung effizienter zu gestalten. Der Clou: Die Forschenden gehören zu einer Gruppe, die eigentlich darauf spezialisiert ist, Maßnahmen zu entwickeln, um Verkehrsstaus zu entschärfen.
Sie sind daher aus einer anderen Perspektive an das Problem herangegangen und haben ein Deep-Learning-Modell entwickelt, das wichtige Informationen über das Lagerhaus, einschließlich der Roboter, der geplanten Pfade, Aufgaben und Hindernisse, kodiert und verwendet, um vorherzusagen, welche Bereiche des Lagers entlastet werden müssen. So gelingt es ihnen, mit verhältnismäßig geringem Aufwand, die Gesamteffizienz zu verbessern.
Künstliche Intelligenz muss Roboter extrem schnell verplanen
Das Grundproblem sieht folgendermaßen aus: Wenn eine Kundenbestellung eingeht, fährt ein Roboter zu einem Bereich des Lagers, greift in das Regal, wo sich der gewünschte Artikel befindet, und übergibt ihm einen menschlichen Mitarbeiter, der den Artikel kommissioniert und verpackt. Das klappt gut. Kompliziert wird es jedoch dadurch, dass Hunderte von Robotern dies gleichzeitig tun, und die Steuerung muss verhindern, dass sie zusammenstoßen.
Herkömmliche suchbasierte Algorithmen vermeiden potenzielle Zusammenstöße, indem sie einen Roboter auf seinem Kurs halten und einen neuen Weg für den nächsten planen. Aber bei so vielen Robotern und möglichen Kollisionen bringt das Effizienz-Probleme mit sich. „Die Roboter werden in einem großen Lager etwa alle 100 Millisekunden neu geplant. Das bedeutet, dass jede Sekunde ein Roboter zehnmal neu geplant wird. Diese Vorgänge müssen also extrem schnell ablaufen“, sagt Cathy Wu, Assistant Professor in Civil and Environmental Engineering (CEE) am MIT und Mitglied des Laboratory for Information and Decision Systems (LIDS).
Neuronales Netz konzentriert sich auf die größten Probleme
Da die Zeit bei der Neuplanung so kritisch ist, verwenden die MIT-Forscher maschinelles Lernen, um die Neuplanung auf die Bereiche zu konzentrieren, wo sich die Wege der meisten Roboter kreuzen. Die neue neuronale Netzwerkarchitektur berücksichtigt mehrere kleine Gruppen von Robotern gleichzeitig. In einem Lager mit 800 Robotern könnte das Netzwerk beispielsweise die Lagerhalle in kleinere Gruppen mit jeweils 40 Robotern unterteilen. Dann wird vorhergesagt, bei welcher Gruppe am meisten Staus zu erwarten sind. Sie ist dann diejenige, auf die sich die Software konzentriert, indem sie einen suchbasierten Solver einsetzt, um die Roboter zu koordinieren. Bei einem Solver handelt es sich um ein Computerprogramm, das mathematische Probleme numerisch löst.
Im Anschluss wählt der Gesamtalgorithmus die Gruppe aus, die an Platz zwei steht, was den Bedarf an Entlastungen betrifft und so weiter.
Das neuronale Netz kann effizient über Robotergruppen nachdenken, weil es die komplizierten Beziehungen zwischen einzelnen Robotern erfasst. Auch wenn ein Roboter anfangs weit von einem anderen entfernt ist, können sich ihre Wege während der Fahrt dennoch kreuzen. Dabei müssen die Faktoren nur einmal kodiert werden, anstatt den Prozess für jedes Teilproblem zu wiederholen. In einem Lagerhaus mit 800 Robotern reicht es beispielsweise aus, eine Gruppe von 40 Robotern zu entlasten, indem man die anderen 760 Roboter als Nebenbedingungen festlegt. Bei anderen Ansätzen müssen alle 800 Roboter bei jeder Wiederholung einmal pro Gruppe berücksichtigt werden.
Künstliche Intelligenz überzeugt in Praxistests
Das klingt äußerst kompliziert, hat sich in Praxistests aber bereits bewährt. Die Forschenden testeten ihre Technik in verschiedenen simulierten Umgebungen, darunter in fiktiven Lagerhäusern, die sie zusätzlich mit zufälligen Hindernissen ausgestattet hatten. Sie bauten sogar labyrinthartige Umgebungen, die das Innere von Gebäuden nachahmten. Nach Angaben des MIT-Teams entlastete der neue lernbasierte Ansatz das Lagerhaus bis zu viermal schneller als starke, nicht lernbasierte Ansätze.
Neben der Rationalisierung von Lagerabläufen könnte dieser Deep-Learning-Ansatz auch bei anderen komplexen Planungsaufgaben wie der Entwicklung von Computerchips oder der Verlegung von Rohrleitungen in großen Gebäuden eingesetzt werden.
Ein Beitrag von: