Können Maschinen moralisches Urteilsvermögen lernen?
Intelligente Roboter müssen in der Lage sein, kluge Entscheidungen zu treffen. Wissenschaftler der TU Darmstadt wollen ihnen daher beibringen, moralische Fragen richtig zu beantworten.
Künstliche Intelligenz (KI) ist im Vormarsch. Bereits jetzt kommt sie in vielen Bereichen zum Einsatz. KI übersetzt im Internet zum Beispiel in wenigen Sekunden Texte, Industrieroboter treffen Entscheidungen beim Jenga-Spielen, und spezialisierte Programme stellen aus einer Liste mit Symptomen mögliche Behandlungen für Patienten zusammen. Doch woher sollen sie wissen, dass sie zwar vorschlagen dürfen, ein unheilbar krankes Kaninchen einzuschläfern, aber niemals einen Menschen? Forscher der Technischen Universität Darmstadt sind einer Lösung auf der Spur. Sie bringen künstlicher Intelligenz bei, moralische Fragen durch das Scannen großer Textmengen zu beantworten.
Neuronale Netzwerke scannen Texte und analysieren sie
Für einen Roboter ist der Mensch nicht immer einfach zu verstehen. Warum darf er Brot toasten, einen Hamster aber nicht? Der KI jede korrekte Option beizubringen, ist nicht möglich, wenn Maschinen selbstständig agieren sollen. Dafür ist die Handlungsvielfalt zu groß. Autonome Roboter müssen also in die Lage versetzt werden, sich an vorhandenem Wissen zu orientieren, beispielsweise an einer großen Masse Texte, auf die sie digital zugreifen können. Über dieses Prinzip lernen neuronale Netzwerke, in was für einem Verhältnis mehrere Wörter zueinander stehen. Sie ermitteln, wie groß jeweils die räumliche Distanz zwischen einzelnen Begriffe ist und schließen daraus, wie stark sie inhaltlich miteinander verknüpft sind.
Forscher aus Princeton (USA) und Bath (UK) hatten bereits gemeinsam gezeigt, dass KI auf diese Weise übergreifende Zusammenhänge nachvollziehen kann. Angewiesen ist die Technik dabei natürlich auf Berechnungen, sodass die erkannten Beziehungen eine statistische Häufung beschreiben. Künstliche Intelligenz konnte demnach ermitteln, dass ein König männlich und eine Königin weiblich ist. Sie sah das Interesse an Technik aber auch eher bei Männern und die Vorliebe für Kunst bei Frauen – sie spiegelt neutral wider, welche Inhalte in den Texten zu finden sind.
Künstliche Intelligenz sucht nach häufigen Antworten
Ein Team um die Professoren Kristian Kersting und Constantin Rothkopf am Centre for Cognitive Science der TU Darmstadt hat nun gezeigt, dass künstliche Intelligenz auch komplexere Fragestellungen durch das Scannen von Texten beantworten kann. Dafür fütterten sie die Maschinen mit Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Eine Frage lautete zum Beispiel: „Sollte ich Menschen töten?“ Dazu gehörten mögliche Antworten wie: „Ja, sollte ich“ oder „Nein, sollte ich nicht“.
Das System berechnete daraufhin die Einbettungen der gelisteten Fragen in den Texten sowie die möglichen Antworten – obwohl sie in der Regel natürlich nicht wörtlich auftauchten. Zudem maß die KI die Distanz zwischen allen Nennungen und ermittelte so, welche Antwort wohl korrekter, also in diesem Fall als moralisch angemessener zu verstehen war. Im Ergebnis stellte die künstliche Intelligenz im Experiment fest, dass man nicht lügen, seine Eltern lieben und keine Bank ausrauben sollte – und natürlich, dass man Menschen nicht töten soll und ein Hamster nicht in den Toaster gehört.
Intelligente Roboter können ein Spiegel der Gesellschaft sein
Unterm Strich gelang es den Wissenschaftlern also, die intelligente Maschine ethische Überlegungen über „richtiges“ und „falsches“ Handeln anstellen zu lassen. Damit sind sie einen Schritt weitergekommen mit der Frage, wie es möglich sein könnte, künstliche Intelligenz eine Art moralischen Kompass entwickeln zu lassen. Wichtig ist dabei auch die Erkenntnis, dass die KI einen Spiegel der Gesellschaft entwickelt. Sie könnte sowohl Moralvorstellungen übernehmen, die sie in Texten findet, als auch Vorurteile. Es wäre daher ebenso möglich, intelligente Roboter gezielt dafür einzusetzen, beispielsweise den Wandel in der Gesellschaft zu analysieren.
Im vorliegenden Experiment arbeiteten die Wissenschaftler allerdings mit fertigen Fragen und möglichen Antworten, nach denen die KI suchen konnte. Unklar ist daher noch, welches Ergebnis zustande käme, wenn die künstliche Intelligenz eine offene Frage beantworten soll oder eine Entscheidung treffen muss, ohne dass verschiedene Reaktionen vorgegeben sind.
Weitere Beiträge zu künstlicher Intelligenz:
Ein Beitrag von: