Wie Gamer-Technologien bei der Autoentwicklung helfen
Technologien aus der Games-Branche heben die Automobilentwicklung auf eine neues Niveau und sorgen für mehr Geschwindigkeit. Erste Projekte verlaufen vielversprechend.
Verschmelzen die Gaming- und Automotive-Welt? Ganz so weit ist es noch nicht. Aber in der Entwicklung und Produktion sorgt Gamer-Technologie in ersten Projekten für einen grundlegenden Wandel des Engineerings. So setzt der Ingenieurdienstleister Porsche Engineering unter anderem in der virtuellen Entwicklung und Erprobung von hochautomatisierten Fahrfunktionen leistungsfähige Game Engines ein.
Game Engines werden zum Motor der Autoindustrie
Diese „Maschinen“ sind das Herzstück von Videospielen – sie sorgen von einer möglichst realistischen Grafik über Echtzeitreaktionen bis zu satten Sounds, dass sich die virtuelle Welt wirklichkeitsnah anfühlt. Wie gemacht für Simulationen und Trainings von Fahrerassistenzsystemen mit synthetischen Sensordaten, durch die beispielsweise (teil-)autonome Fahrzeuge jede auch noch so unwahrscheinliche Situation durchspielen können. Das spart Kosten, verkürzt Entwicklungszeiten und macht letztlich selbständiges Fahren sicher.
Porsche Engineering bedient sich aber auch an anderer Stelle in der Gamer-Welt: In der Konstruktion werden mit einem Visual Engineering Tool Prototypen so weit mit virtuellen Werkzeugen entwickelt, das sich physische Modelle einsparen lassen. Manch ein Experte sieht den Schritt zum komplett virtuellen Engineering in greifbarer Nähe – auch dank der Technologien, die Gaming-Industrie entwickelt hat.
Game-Technologie verhilft zu einer Revolution in der Produktion
Zu den Vorreitern zählt BMW. Der Autobauer arbeitet bereits seit 2016 mit der Computerspiele-Industrie zusammen. Unter anderem, indem die Ingenieurinnen und Ingenieure die Engine „Unreal Engine“ des US-Spieleentwicklers Epic Games in der Automobilentwicklung und Produktionsplanung einsetzen.
Gemeinsam mit dem Grafikprozessor- und Spielekonsolenhersteller Nvidia wird die Produktionsplanung virtualisiert und fahrerlose Transportsysteme trainiert. Dies wird zunächst mit einer Handvoll Logistikroboter erprobt, die durch KI-Module gesteuert werden. Effekt: Es zeigt sich, dass autonome Transportsysteme Hindernisse wie Stapler, Routenzüge oder Mitarbeiter besser erkennen und fixer darauf mit Ausweichmanövern reagieren als manuell angelernte Systeme. „Die Verwendung von High-End Technologie im Bereich KI und Visualisierung zur Neugestaltung der Logistik ist revolutionär“, lobten die bayerischen Produktionsnetzwerker zum Projektstart.
Die BMW-Robos basieren auf der von Nvidia entwickelten ISAAC Robotics-Softwareplattform und verwenden eine Reihe von künstlich neuronalen Netzwerken. Darunter Wahrnehmung, Segmentierung, räumliche Lage und Schätzung der menschlichen Position. Zusätzlich zu realen Daten werden die Robos mithilfe virtueller Bilder trainiert, um Bauteile und Ladungsträger auch unter verschiedenen Sicht- und Lichtbedingungen sicher zu erkennen. Die so gewonnenen realen und synthetischen Daten werden wiederum genutzt, um künstliche, neuronale Netzwerke auf den Grafikkarten-basierten Servern zu trainieren.
Weniger manuelles Training, mehr Sicherheit
Das erspart vor allem, autonome Industrieroboter mit massig Trainingsdaten füttern zu müssen, bevor sie auf das Gewusel von Produktionshallen losgelassen werden. Also gilt es, die digitalen Produktionshelfer tatsächlich künstlich intelligent zu machen. Damit kommen realistische Animationen der Umgebung ins Spiel, durch die die Technik lernt, indem Motion Capture-Tools eingesetzt werden. Also eine Bildverarbeitung, durch die Roboter „sehen“, was sie gerade treiben und daraus ihre Schlüsse ziehen.
An solchen Verfahren arbeiten auch Forscher der Abteilung „Perzeption und Kognition“ des Deutschen Zentrums für Luft- und Raumfahrt (DLR). Wie bei Videospielen, deren Animationen blitzschnell an die Aktionen eines Gamers angepasst werden und dies zuweilen hyperrealistisch gelingt, soll dies auch beim Anlernen von Robotern helfen, deren „Verhalten“ zu trainieren. Dieses selbstlernende Aktions-Reaktions-Muster läuft weitgehend automatisiert ab, so dass nun nicht mehr vorher etliche Eventualitäten programmiert werden müssen – was ohnehin nicht machbar ist. Stichwort: Semantisches Lernen.
Dabei hilft den DLR-Forschern die Software BlenderProc, durch die unter anderem die Lichtverhältnisse einer simulierten Produktionsumgebung äußerst wirklichkeitsnah wiedergegeben werden, weil die exakten Daten jedes einzelnen Pixels, jedes Lichtstrahls und dessen Änderung beim Perspektivenwechsel berücksichtigt werden.
Allerdings: Es zeigt ich, dass dieser Ansatz teilweise zu realistisch ist, was auf Kosten des Trainingsergebnisses gehen kann. Heißt: Zu perfekt darf die künstliche Welt auch nicht sein.
Ein Beitrag von: