Studie 05.09.2024, 13:00 Uhr

Dürfen Roboter lügen? Studie kommt zu interessanten Ergebnissen

Roboterlügen im Test: Wann dürfen Maschinen Menschen täuschen? Eine Studie kommt zu mehr oder weniger überraschenden Ergebnissen.

Roboter und Mensch schütteln sich die Hand

Eine künftige Zusammenarbeit zwischen Mensch und Maschine sollte auf Vertrauen aufgebaut sein. Da stellt sich die Frage: Dürfen Roboter lügen und wenn ja, in welchem Zusammenhang?

Foto: PantherMedia / marketing.lasers@ya.ru

In der modernen Welt werden Roboter immer häufiger eingesetzt. Sie helfen in Krankenhäusern, im Einzelhandel und sogar bei der Hausreinigung. Doch mit dem wachsenden Einfluss dieser Maschinen stellt sich eine wichtige Frage: Dürfen Roboter lügen? Genau wie Menschen stehen auch Maschinen zunehmend vor ethischen Dilemmata, die unser Vertrauen in sie beeinflussen können. Die Antwort auf diese Frage ist nicht einfach – sie hängt von den Umständen ab. Das ist auch das Ergebnis einer Studie, die wir uns genauer ansehen wollen.

Die Rolle sozialer Normen bei der Täuschung

In der menschlichen Gesellschaft gibt es klare Vorstellungen davon, wann Lügen gerechtfertigt sind – etwa um die Gefühle anderer zu schonen oder Schaden abzuwenden. Doch wie lassen sich solche Normen auf Roboter übertragen? Wenn Maschinen mit uns interagieren, müssen sie ähnliche Überlegungen anstellen – oder besser: so programmiert werden, dass sie solche Überlegungen simulieren.

In einer Studie haben Forschende der George Mason University im Auftrag des U.S. Air Force Office of Scientific Research untersucht, ob und wann Menschen bereit sind, Lügen von Robotern zu akzeptieren.

Insgesamt haben fast 500 Personen an der Studie teilgenommen. Sie bewerteten verschiedene Szenarien, in denen Roboter in unterschiedlichen Kontexten logen. Ziel der Studie war es, besser zu verstehen, wie Menschen auf maschinelle Täuschungen reagieren – und unter welchen Umständen sie diese als akzeptabel empfinden.

Stellenangebote im Bereich Automatisierungstechnik

Automatisierungstechnik Jobs
ONTRAS Gastransport GmbH-Firmenlogo
Planungsingenieur (m/w/d) ONTRAS Gastransport GmbH
Leipzig Zum Job 
Octapharma Produktionsgesellschaft Deutschland mbH-Firmenlogo
Ingenieur (m/w/d) Automatisierung (Schwerpunkt: Prozessleitsystem PCS7) Octapharma Produktionsgesellschaft Deutschland mbH
Springe Zum Job 
BG ETEM-Firmenlogo
Aufsichtsperson I (m/w/d) nach § 18 SGB VII für die Region Rheine, Nordhorn und Lingen BG ETEM
Region Lingen, Rheine, Nordhorn Zum Job 
Fraunhofer-Institut für Verfahrenstechnik und Verpackung IVV-Firmenlogo
Gruppenleiter*in Prozesse- und Maschinenintegration Fraunhofer-Institut für Verfahrenstechnik und Verpackung IVV
Dresden Zum Job 
Nitto Advanced Film Gronau GmbH-Firmenlogo
Projektingenieur im Engineering (w/m/d) Nitto Advanced Film Gronau GmbH
pro-beam GmbH & Co. KGaA-Firmenlogo
Entwicklungsingenieur (m/w/d) Elektronenstrahl Schweißtechnik pro-beam GmbH & Co. KGaA
pro-beam GmbH & Co. KGaA-Firmenlogo
Maschinenbauingenieur / Wirtschaftsingenieur als Industrial Engineer / Fertigungsplaner (m/w/d) pro-beam GmbH & Co. KGaA
Industriepark Nienburg GmbH-Firmenlogo
Ingenieur (m/w/d) Elektrotechnik als Leiter Elektrotechnik & Automation Industriepark Nienburg GmbH
Nienburg Zum Job 
über ifp l Personalberatung Managementdiagnostik-Firmenlogo
Head of Sales (m/w/d) über ifp l Personalberatung Managementdiagnostik
Nordrhein-Westfalen Zum Job 
Jungheinrich AG-Firmenlogo
Gesamtprojektleiter (m/w/d) Fahrzeugentwicklung Intralogistik Jungheinrich AG
Norderstedt, Chomutov (Tschechische Republik) Zum Job 
Evonik Operations GmbH-Firmenlogo
EMR-Anlageningenieur (m/w/d) mit Sonderqualifikation Evonik Operations GmbH
Rheinfelden (Baden) Zum Job 
CR3-Kaffeeveredelung M. Hermsen GmbH-Firmenlogo
Projektleiter (m/w/d) Elektrotechnik CR3-Kaffeeveredelung M. Hermsen GmbH
THU Technische Hochschule Ulm-Firmenlogo
Laboringenieur*in (w/m/d) mit Leitungsfunktion am Institut für Automatisierungssysteme THU Technische Hochschule Ulm
Infraserv GmbH & Co. Höchst KG-Firmenlogo
Ingenieur Verfahrenstechnik / Mechatronik für Messstellenbetrieb Erdgas & rohrgebundene Medien (w/m/d) Infraserv GmbH & Co. Höchst KG
Frankfurt am Main Zum Job 
Berliner Stadtreinigungsbetriebe (BSR)-Firmenlogo
Betriebsingenieurin / Betriebsingenieur (w/m/d) Müllheizkraftwerk Berliner Stadtreinigungsbetriebe (BSR)
Zweckverband Bodensee-Wasserversorgung-Firmenlogo
Ingenieur (m/w/d) für Automatisierungstechnik SPS / OT-Sicherheit Zweckverband Bodensee-Wasserversorgung
Sipplingen Zum Job 
B. Braun Melsungen AG-Firmenlogo
Senior Prozess Experte (w/m/d) Reinmedien / Einwaage / Ansatz B. Braun Melsungen AG
Melsungen Zum Job 
Deutsches Zentrum für Luft- und Raumfahrt e. V.-Firmenlogo
Versorgungsingenieur/in, Elektroingenieur/in o. ä. (w/m/d) Projektsteuerung von Baumaßnahmen Deutsches Zentrum für Luft- und Raumfahrt e. V.
Dr. C. Soldan GmbH-Firmenlogo
Projektingenieur (m/w/d) Dr. C. Soldan GmbH
Adelsdorf Zum Job 
AGR Betriebsführung GmbH-Firmenlogo
Ingenieur Leittechnik (m/w/d) AGR Betriebsführung GmbH

Drei Arten von Lügen – und ihre Akzeptanz

Das Forschungsteam sich auf drei Hauptarten der Täuschung:

  • Täuschung über äußere Zustände: In diesem Szenario lügt ein Pflegeroboter, der eine Alzheimer-Patientin betreut, über die Rückkehr ihres verstorbenen Mannes. Diese Lüge soll der Patientin emotionale Erleichterung verschaffen.
  • Verborgene Täuschung: Ein Haushaltsroboter reinigt ein Haus, während er heimlich filmt. Die Bewohner wissen jedoch nichts von der Überwachung.
  • Oberflächliche Täuschung: Ein Roboter in einem Geschäft täuscht Schmerzen vor, um Mitgefühl zu wecken und von seiner Aufgabe entbunden zu werden.

Diese drei Szenarien spiegeln Situationen wider, die in der realen Welt bereits denkbar sind. Dabei zeigen sich jedoch unterschiedliche Reaktionen der Menschen auf die Täuschungsarten.

Was akzeptieren Menschen – und warum?

Die Ergebnisse der Studie waren eindeutig: Die größten Vorbehalte hatten die Teilnehmenden gegenüber versteckter Täuschung. Ein heimlich filmender Roboter wurde als besonders täuschend und unmoralisch empfunden. Diese Täuschung griff aus Sicht der Probanden tief in die Privatsphäre der Menschen ein. Auch die oberflächliche Täuschung, bei der der Roboter Schmerzen vortäuscht, wurde mehrheitlich negativ bewertet. Diese Art der Täuschung wirkte manipulativ und nutzte das Mitgefühl der Menschen aus.

Interessanterweise wurde die Täuschung über äußere Zustände – wie im Beispiel des Pflegeroboters – am ehesten akzeptiert. Hier wurde die Lüge als gerechtfertigt angesehen, da sie der Patientin emotionalen Schutz bot. Der Schutz vor Leid schien in diesem Fall wichtiger zu sein als die Wahrheit.

Verantwortung der Entwickler und Betreiber

Ein weiteres zentrales Thema der Studie war die Frage nach der Verantwortung. Die Befragten neigten dazu, Täuschungen nicht nur den Robotern selbst, sondern auch den Entwicklern und Betreibern anzulasten. Vor allem bei versteckten Täuschungen sahen die meisten die Verantwortung bei denjenigen, die den Roboter programmiert oder in den Haushalt eingeführt haben. Dies zeigt, wie wichtig es ist, dass die Entwickler von Robotern ethische Überlegungen in ihre Arbeit einbeziehen.

Andres Rosero, Doktorand an der George Mason University und Hauptautor der Studie, betont die Relevanz dieser Frage: „Mit dem Aufkommen der generativen KI ist es besonders wichtig, mögliche Fälle zu untersuchen, in denen das Design und das Verhalten von Robotern zur Manipulation der Nutzer eingesetzt wird.“ Die Gefahr, dass Roboter durch geschicktes Design Nutzer beeinflussen, ist in der Tat real – und es bedarf klarer ethischer Richtlinien und möglicherweise staatlicher Regulierung, um Missbrauch zu verhindern.

Brauchen wir Regulierungen für Roboterlügen?

Die Studie warnt eindringlich davor, die Täuschungstechnologie von Robotern auf die leichte Schulter zu nehmen. Der Einsatz von Maschinen, die ihre wahren Fähigkeiten verschleiern oder Menschen manipulieren können, sollte streng reglementiert werden. Schon heute gibt es Unternehmen, die Nutzer durch gezieltes Design in eine bestimmte Richtung lenken – sei es im Webdesign oder bei der Interaktion mit KI-basierten Chatbots. Solche manipulativen Ansätze müssen durch klare Regeln eingeschränkt werden.

Hier geht es zur Originalpublikation

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Themen im Artikel

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.