Expertern fordern rechtliche Haftungsregelungen für Roboter
Für zivil- und strafrechtliche Regelungen beim Einsatz von autonomen Maschinen plädierten Juristen auf einer Tagung zum Roboterrecht, die kürzlich in Bielefeld stattgefunden hat. Das würde für Ingenieure und Informatiker mehr Sicherheit bedeuten und die Akzeptanz von Robotern erhöhen.
Angenommen, ein Computersystem koordiniert und kontrolliert die gesamte Technik in einem Operationssaal und bewegt den OP-Tisch zum falschen Zeitpunkt. Der Patient kommt zu Schaden. Als Verursacher kommen einige infrage, z. B. der Chirurg, der Hersteller, der Programmierer oder das Wartungsunternehmen. Und angenommen, das gleiche System sammelt dazu noch Patientendaten, die nach außen dringen: Dann steht außer der Haftungsfrage noch ein Verstoß gegen das Datenschutzgesetz im Raum.
„Das sind reale Probleme, auf die wir uns einstellen müssen“, erklärte Eric Hilgendorf, Leiter der Forschungsstelle RobotRecht an der Universität Würzburg, gegenüber den VDI nachrichten. Der Strafrechtler, der lieber von „autonomen Maschinen“ als von Robotern spricht, sieht angesichts der rasanten technischen Entwicklung und der Tatsache, dass selbst Fachleute nicht immer vorhersehen könnten, wie eine solche Maschine z. B. auf Veränderungen in ihrer gewohnten Umgebung reagiere, den juristischen Handlungsbedarf jetzt: „Wir können nicht bis zum Schadensfall warten“, betont Hilgendorf. „Wir müssen die Haftungsfragen durchdenken und Rechtssicherheit schaffen.“
Zivil- und strafrechtliche Regelung für Roboter würde Sicherheit schaffen
Derzeit sei die Gesetzgebung aber noch nicht gefragt, sagt Hilgendorf. Ein Lösungsansatz könne aber eine Versicherungspflicht für autonome Systeme sein. In den Augen des Ingolstädter Juristen Jochen Hanisch wären klare zivil- und strafrechtliche Regelungen für den Einsatz autonomer Maschinen eine vertrauensbildende Maßnahme – zum einen um Ingenieuren und Informatikern Sicherheit für ihre Entwicklungsarbeit zu geben, zum anderen, um am Markt eine höhere Akzeptanz für das Endprodukt zu schaffen.
Hanisch hat versucht, typische Rechtsfälle wie „Vertragliche Haftung“ oder „Geschäftsführung ohne Auftrag“ auf Roboter zu übertragen: „Ich habe hierfür wenig Anhaltspunkte im Gesetz gefunden.“ Er schlägt daher ein mehrstufiges Haftungskonzept vor, das die sogenannte Primärhaftung beim Betreiber der Maschine als Ansprechpartner für den Geschädigten sieht, aber auch weitere Beteiligte wie die Wartungsfirma und den Hersteller für eine „Sekundärhaftung“ in Betracht zieht.
Nicht nur Juristen, auch Soziologen machen sich Gedanken, ob und wie Roboter irgendwann Teil einer Gesellschaft werden können, deren Zusammenleben auf der Einhaltung von Recht und Gesetz basiert. Gregor Fitzi von der Universität Osnabrück und sein Kollege Hironori Matsuzaki sind der Überzeugung, dass das Miteinander von Mensch und Maschine nicht hinter verschlossenen Türen, sondern im realen Leben getestet werden sollte.
Was, wenn ein Roboter einen Passenten anfährt?
„Wir leben nicht in einem Vakuum“, betont Fitzi. „Nur die soziale Interaktion sagt uns, ob es funktioniert.“ So mag ein Müllroboter, wie sie in Italien bereits getestet wurden, in seiner gewohnten Laborumgebung perfekt funktionieren. Was aber, wenn ungewohnte Geräusche auf der Straße ihn aus der Routine bringen oder ein Sensor ausfällt und der Roboter einen Passanten anfährt? Auch hier stellen sich Versicherungs- und Haftungsfragen.
Grundsätzlich ausschließen, dass Roboter sich irgendwann sozial konform verhalten, wollen die beiden Experten nicht. Ohne Pannen kann die Interaktion der Zukunft nach ihrer Überzeugung aber nur ablaufen, wenn die Technik funktioniert, die notwendigen Gesetze da sind und die Gesellschaft akzeptiert, dass ein Roboter zwar kein Mensch, aber doch eine juristische Person ist.
Dass die Kommunikation mit lernenden Systemen allerdings noch lange Zukunftsmusik bleiben dürfte, zeigen unter anderem Feldversuche des Aachener Techniksoziologen Roger Häußing. Von einer wirklichen Interaktion könne man ohnehin nur sprechen, wenn das System auch wahrnehmen, interpretieren und entscheiden könne. Die Erfassung einer menschlichen Ebene mit Gedanken und Gefühlen sind für Häußing bei einer Maschine, die von Algorithmen und Sensoren gesteuert wird, noch weniger denkbar.
Roboter der Zukunft braucht „Vetoinstanzen“
„Sie können nicht für jede Situation ein Programm schreiben.“ So gestaltete es sich für seinen mit einem großen passiven Wortschatz und einer Objekterkennung ausgestatteten Serviceroboter schon schwierig, trotz einer deutlichen Aufforderung durch einen Studenten, die gelbe Tasse vom Tisch abzuräumen und nicht etwa den gelben Teller oder die rote Tasse. Umweltgeräusche und falsch gedeutete Gesten seines menschlichen Gegenübers brachten den Roboter immer wieder aus dem Konzept.
„Es gab keine Interaktion auf Augenhöhe“, bilanziert Häußing. Massive Probleme prognostiziert der Soziologe darüber hinaus, wenn autonome Maschinen ihre vorprogrammierten Entscheidungsstrukturen verlassen oder ihre Aktionen im technischen System nicht mehr nachvollziehbar sind. Vor diesem Hintergrund sieht der Experte eine der großen technischen Herausforderungen darin, die Entscheidungen der Maschine nicht in einen Automatismus zu überführen, sondern „Vetoinstanzen“ zu integrieren.
Ein Beitrag von: