Alles eine Frage der KI? 15.11.2024, 12:12 Uhr

Warum autonomes Fahren nicht richtig vorankommt

Autonomes Fahren stagniert. Gründe sind technische Schwächen und mangelnde Akzeptanz. Konzepte wie „Responsible AI“ könnten das ändern.

autonomes Fahren

Bereits vor zehn Jahren war autonomes Fahren ein heißes Thema, der entgültige Durchbruch fehlt nach wie vor. Das hat seine Gründe, wie ein aktuelles Whitepaper beweist.

Foto: PantherMedia / Olivier Le Moal

Die Automobilindustrie gilt als Vorreiter bei der Integration künstlicher Intelligenz (KI). Fortschrittliche KI-Systeme verbessern Produktionsprozesse, steigern die Qualität und erhöhen die Sicherheit im Straßenverkehr. Fahrerassistenzsysteme, die auf KI basieren, sind aus modernen Fahrzeugen nicht mehr wegzudenken. Doch das ultimative Ziel, autonome Fahrzeuge flächendeckend einzusetzen, bleibt bislang unerreicht. Warum ist das so? Ein aktuelles Whitepaper versucht, diese Frage zu beantworten.

Wo bleiben die Fortschritte?

Vor zehn Jahren prophezeiten Expertinnen und Experten, dass autonome Fahrzeuge bald Alltag sein würden. Heute zeigt sich ein anderes Bild: Autonome Fahrzeuge finden sich nur in wenigen Pilotprojekten, etwa in San Francisco oder Shanghai, und selbst dort gibt es Schwierigkeiten. Wie das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) feststellt, stoßen Robotaxis in San Francisco immer wieder auf Probleme. Berichte über blockierte Kreuzungen oder Rettungswege schüren Zweifel an der Zuverlässigkeit der Technologie.

Zudem haben Unfälle mit autonomen Fahrzeugen das Vertrauen der Öffentlichkeit geschwächt. „Die Fortschritte in der autonomen Fahrzeugtechnologie zeigen die Potenziale, aber auch die Limitationen heutiger KI-Systeme“, erklärt Prof. Marco Bahrenkamp, ein Experte für Wirtschaftsinformatik und Künstliche Intelligenz. Viele Prognosen seien schlichtweg zu optimistisch gewesen.

Stellenangebote im Bereich Fahrzeugtechnik

Fahrzeugtechnik Jobs
WIRTGEN GmbH-Firmenlogo
System- und Softwarearchitekt (m/w/d) - mobile Arbeitsmaschinen WIRTGEN GmbH
Windhagen (Raum Köln/Bonn) Zum Job 
Bundeswehr-Firmenlogo
Ingenieurin / Ingenieur mit Bachelor - Beamten - Ausbildung (m/w/d) Bundeswehr
Bundeswehr-Firmenlogo
Ingenieurin / Ingenieur mit Master - Beamten - Ausbildung (m/w/d) Bundeswehr
Mannheim Zum Job 
über aeconsult-Firmenlogo
(Bereichs-)Leiter Produktion (m/w/d) über aeconsult
zentral in Norddeutschland Zum Job 
Truma Gerätetechnik GmbH & Co. KG-Firmenlogo
Elektroniker (m/w/d) im Bereich Fahrzeugelektronik Truma Gerätetechnik GmbH & Co. KG
Putzbrunn Zum Job 
Tagueri AG-Firmenlogo
Consultant OTA - Connected Cars (m/w/d)* Tagueri AG
Stuttgart Zum Job 
ME MOBIL ELEKTRONIK GMBH-Firmenlogo
Support- und Applikationsingenieur (m/w/d) ME MOBIL ELEKTRONIK GMBH
Langenbrettach Zum Job 
THU Technische Hochschule Ulm-Firmenlogo
W2-Professur "Elektrifizierte Fahrzeugantriebssysteme" THU Technische Hochschule Ulm
Hochschule für Technik und Wirtschaft des Saarlandes-Firmenlogo
W2-Professur (m/w/d) für Fahrzeugtechnik - Fahrdynamik und Fahrwerke Hochschule für Technik und Wirtschaft des Saarlandes
Saarbrücken Zum Job 
Hochschule Ravensburg-Weingarten-Firmenlogo
Professur für Digitalisierung und KI im Maschinenbau Hochschule Ravensburg-Weingarten
Weingarten Zum Job 

Technische Hindernisse: Schwächen der KI-Systeme

Ein zentraler Grund für die stockende Entwicklung liegt in den technologischen Herausforderungen der KI-Systeme. Autonome Fahrzeuge basieren auf Deep-Learning-Algorithmen, die riesige Mengen an Daten benötigen, um zu lernen. Dabei stoßen diese Systeme an ihre Grenzen:

  1. Erklärbarkeit: Entscheidungen autonomer Systeme sind oft nicht nachvollziehbar. Für sicherheitskritische Anwendungen ist diese „Black Box“ ein großes Problem.
  2. Robustheit: KI-Modelle reagieren empfindlich auf unerwartete Situationen, etwa ungewöhnliche Wetterbedingungen oder schlechte Sichtverhältnisse.
  3. Generalität: Autonome Systeme haben Schwierigkeiten, von Trainingsdaten auf neue Szenarien zu schließen. Ein System, das in Kalifornien trainiert wurde, funktioniert nicht automatisch in Hamburg.

Das DFKI kritisiert zudem den hohen Energieverbrauch und die enorme Datenmenge, die für das Training der Systeme erforderlich ist. Laut einer aktuellen Studie seien diese Herausforderungen mitverantwortlich dafür, dass autonomes Fahren bisher nicht die notwendige Reife erreicht habe.

Der Ansatz der „verantwortungsvollen KI“

Die Lösung für diese Probleme könnte in der Entwicklung einer „verantwortungsvollen KI“ liegen. In einem Whitepaper mit der Unternehmensberatung Accenture beschreibt das DFKI, wie KI-Systeme sicherer, transparenter und ethischer gestaltet werden können. Prof. Marco Bahrenkamp betont: „Ein solch verantwortungsvoller Umgang mit KI stärkt nicht nur das Vertrauen der Gesellschaft, sondern ist unverzichtbar für sicherheitskritische Anwendungen.“

Die sogenannte „Responsible AI“ verfolgt dabei folgende Prinzipien:

  • Fairness: KI-Systeme sollen diskriminierungsfrei arbeiten und gleiche Bedingungen für alle schaffen.
  • Transparenz: Entscheidungen müssen erklärbar und nachvollziehbar sein.
  • Nachhaltigkeit: Der Energieverbrauch und die Ressourcennutzung der Systeme sollen reduziert werden.

Transparenz durch hybride Systeme

Eine konkrete technische Lösung, die das DFKI vorschlägt, ist die sogenannte neuroexplizite KI. Dieser hybride Ansatz kombiniert neuronale Netze mit symbolischem Wissen. Das Ziel: KI-Modelle sollen nicht nur leistungsstark, sondern auch erklärbar und robust sein. Symbolisches Wissen kann physikalische Gesetze oder domänenspezifische Regeln beinhalten und so die Entscheidungsfindung der KI präzisieren.

Ein Beispiel ist die Verbesserung der Objekterkennung in autonomen Fahrzeugen. Hierbei nutzt die KI symbolische Daten, wie Wissen über Lichtreflexionen, um visuelle Informationen besser zu interpretieren. Das Ergebnis: höhere Zuverlässigkeit und weniger Fehleranfälligkeit.

Neuroexplizite KI könnte auch dazu beitragen, die Akzeptanz in der Gesellschaft zu erhöhen, da die Entscheidungen der Systeme nachvollziehbarer werden. „Das Potenzial dieser Technologie liegt in ihrer Fähigkeit, die Schwächen herkömmlicher Deep-Learning-Modelle zu überwinden“, so die Fachleute des DFKI.

Gesellschaftliche und regulatorische Hürden

Neben den technologischen Herausforderungen stehen auch gesellschaftliche und rechtliche Aspekte dem autonomen Fahren im Weg. Viele Menschen misstrauen autonomen Systemen, insbesondere nach Berichten über Unfälle oder Fehlfunktionen. Gleichzeitig fehlt es an klaren regulatorischen Vorgaben.

Eine „verantwortungsvolle KI“ muss daher nicht nur technisch ausgereift sein, sondern auch ethische und soziale Prinzipien berücksichtigen. Dazu gehört:

  • Datenschutz: KI-Systeme dürfen die Privatsphäre nicht verletzen.
  • Autonomie: Menschliche Entscheidungsfreiheit darf nicht untergraben werden.
  • Fairness: Diskriminierung und Voreingenommenheit müssen vermieden werden.

Laut dem DFKI sind diese Kriterien nicht nur ethisch wichtig, sondern auch wirtschaftlich sinnvoll. Unternehmen, die diese Prinzipien einhalten, könnten das Vertrauen der Kundschaft stärken und langfristig erfolgreicher sein.

Hier geht es zum gemeinsamen Whitepaper des DFKI und Accenture (PDF)

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.