Autonome Systeme übernehmen keine Haftung
Es ist ein gewaltiger Fortschritt, wenn autonome Systeme Transport-, Fertigungs- und Logistikprozesse schneller, flexibler und effizienter machen. Doch viele Rechtsfragen sind noch nicht geklärt – insbesondere, wenn ein autonomes System einen Menschen verletzt.
„Die Dinge beginnen neu und problematisch zu werden, wo die Maschinen einen Grad von Autonomie erreichen, der es unmöglich macht, etwa bei Fragen der Haftung ohne Weiteres auf Hersteller, Programmierer, Verkäufer oder Anwender zurückzugreifen“, verdeutlicht Eric Hilgendorf, Rechtsexperte der Begleitforschung und Inhaber des Lehrstuhls für Strafrecht, Strafprozessrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik an der Universität Würzburg.
Heutige Fahrassistenzsysteme: Der Fahrer muss im Zweifel auf die Bremse treten
Wer haftet, wenn ein autonomes Fahrzeug ein anderes Fahrzeug beschädigt oder einen Menschen verletzt? „Im Sinne des Zivilrechts haftet normalerweise derjenige, der die Ursache für einen Schaden gesetzt hat und dem man den Schaden als eigenes Werk zurechnen kann“, sagt Hilgendorf. „Bei den heute verfügbaren Fahrerassistenzsystemen, etwa Einparkhilfen, können sich Hersteller im Schadensfall darauf berufen, dass der Bediener – in diesem Fall der Fahrer – jederzeit die Möglichkeit hat, sich über den Willen des Systems hinwegzusetzen. Und er ist in der Pflicht, das System zu kontrollieren.“ Sprich: Der Fahrer muss im Zweifel auf die Bremse treten.
Völlig autonome Systeme schaffen eine Haftungslücke im Schadensfall
Bei einem völlig autonom agierenden Fahrzeug sähe das anders aus: Wer haftet dafür, wenn es in eine Situation gerät, die es zu einer Reaktion veranlasst, die einen Unfall auslöst? Hersteller und „Fahrer“ stehen wohl nicht in der Verantwortung, meint Hilgendorf: „Autonome Systeme lernen selbstständig dazu. Niemand hätte die Reaktion der Maschine vorhersagen können, dazu hätte man alle denkbaren Umwelteinflüsse vorhersehen müssen – was unmöglich ist.“ Das konkrete schadensträchtige Verhalten könne der Hersteller nicht vorhersehen. Er haftet demnach auch nicht, ebenso wenig der Verkäufer und auch nicht der Programmierer – es entsteht eine Haftungslücke.
Derzeit würde kein Versicherer das Haftungsrisiko für so eine Maschine übernehmen und kein Staatsanwalt wird eine Maschine vor Gericht stellen. „Wir sind dabei herauszufinden, wo die geltende Rechtssprechung ausreicht und wo der Gesetzgeber eventuell handeln muss“, erklärt Hilgendorf. Als drängendstes Problem nennt der Jurist auch den Datenschutz: „Da passiert viel, was schon heute rechtswidrig ist, auch strafrechtswidrig.“ Etwa im Zusammenhang mit autonomen Robotern in einer Fabrik. „Die haben etliche Sensoren, um ihre Außenwelt wahrzunehmen, sie sammeln Daten, um sich sicher bewegen und mit Menschen interagieren zu können. Kein Winkel einer Fabrik bleibt unbeobachtet, man erhält Totalprofile der Mitarbeiter.“
Rechtsexperte: Das Recht setzt der technischen Entwicklung von autonomen Systemen Grenzen
Hier müsse ein Unternehmen mit dem Betriebsrat diskutieren, welche Arbeits- und Datenschutzrichtlinien beim Einsatz autonomer Systeme wünschenswert und praktikabel seien. Es gebe aber auch Anwendungsfelder etwa in der Medizin- und Pflegetechnik, wo der Umgang mit Patientendaten strikt geregelt und der Datenschutz nicht verhandelbar sei.
„Recht sollte kein Innovationshemmnis sein, aber die Grenzen der technischen Entwicklung werden durch das Recht gezogen. Das macht nicht immer Sinn. Viele Rechtsregeln sind 100 Jahre alt – da hat keiner an autonome Roboter gedacht. Innovationen sind aber keine Entschuldigung für Rechtsverstöße“, bilanziert Hilgendorf.
Ein Beitrag von: