Google, Alexa und Co.: Beherrschen wir noch die Maschine – oder hat uns die KI schon im Griff?
„Alexa, kann ich dir wirklich vertrauen?“ KI-Assistenten werden uns darauf wohl keine befriedigende Antwort geben. Bestseller-Autor Thomas Ramge beschäftigt sich schon lange mit Künstlicher Intelligenz. Im Interview erklärt er, warum Roboter-Entscheidungen transparenter werden müssen und warum eine KI allein bei einer Pandemie auch nicht weiterhilft.
Woher wissen Sie, dass Sie jetzt gerade nicht mit einem Roboter, sondern mit einem Menschen telefonieren?
Sie haben einen leichten Dialekt, das wäre ein erster Anhaltspunkt. Aber tatsächlich können manche Systeme die menschliche Stimme schon recht gut imitieren. Woran ich es auf jeden Fall merken würde, dass Sie ein Mensch sind, wäre, wenn es Ihnen gelingt, originelle Fragen zu stellen.
Jetzt setzen Sie mich aber unter Druck.
In der Tat macht KI erhebliche sprachliche Fortschritte, auch was die inhaltliche Kontextualisierung in Gesprächen angeht. Noch kann ich also nicht zu 100 Prozent sicher sein, dass Sie ein Mensch sind. Aber je überraschender Ihre Fragen sind und je besser sie zum Kontext passen, desto unwahrscheinlicher ist es, dass Sie eine Maschine sind.
Google hat 2018 seinen KI-Assistenten Duplex vorgestellt, der während der Pressekonferenz am Telefon einen Tisch reserviert hat. Das hat im Nachgang bei vielen für Bauchschmerzen gesorgt. Was ist da schiefgelaufen?
Zunächst einmal: Die Reservierung hat hervorragend geklappt. Das Unheimliche daran war, dass Duplex ganz gezielt versucht hat, seinem Gesprächspartner am Telefon vorzugaukeln, ein Mensch zu sein. Dazu hat die KI zum Beispiel umgangssprachliche Formulierungen benutzt. Kritiker haben damals gesagt: Das ist das Gegenteil von dem, wie wir mit intelligenten Maschinen umgehen sollten. Denn wenn wir mit Robotern oder Chatbots interagieren, sollten wir immer wissen, dass wir es mit einer Maschine zu tun haben. Sonst besteht die Gefahr, dass die Betreiber der KI-Systeme ihre intelligenten Maschinen nutzen, um andere massenhaft zu manipulieren.
KI-Assistenten wie Alexa oder Smart-Home-Systeme treffen Entscheidungen für uns, die wir schon heute nicht immer nachvollziehen können. Machen uns die Maschinen unmündig?
Das kommt natürlich sehr darauf an, um welche Entscheidungen es sich handelt. Ein intelligenter Thermostat macht uns nicht unmündig, sondern spart Energie. Alexa kann uns schnell zurufen, wie das Wetter wird. Das ist wohl eher harmlos. Aber was geschieht, wenn KI-Systeme plötzlich über die Vergabe von Studienplätzen entscheiden? Bei wichtigen Entscheidungen über uns verlangen wir schon immer Transparenz, völlig unabhängig von KI. Die Begründung von Entscheidungen ist ein Prinzip unseres Rechtsstaats. Bei Maschinen ist das aber gar nicht so einfach, denn die Entscheidungsfindungsmechanismen, mit denen Algorithmen in künstlichen neuronalen Netzen operieren, sind Ergebnisse von unfassbar komplexen mathematischen Berechnungen. Deshalb arbeiten Wissenschaftler und Techniker daran, zunehmend Erklärfunktionen einzubauen. Technisch funktioniert das oft so, dass ein zweites künstliches neuronales Netz die Enscheidungen beobachtet, nachvollzieht und wiedergeben kann.
Künstliche Intelligenz erkennt Covid-19 am Uniklinikum Jena
Mit der Transparenz ist es jetzt nicht immer weit her. Kaum jemand versteht oder hinterfragt die Algorithmen von Google, Amazon-Empfehlungen oder KI-Assistenten, aber wir nutzen sie trotzdem. Opfern wir die Selbstbestimmung der Bequemlichkeit?
Wir müssen an dieser historischen Schnittstelle lernen, wann wir bewusst selber Entscheidungen treffen, und wann wir weniger wichtige Routineentscheidungen an Maschinen delegieren. Dann kommen wir zu einem wichtigen zweiten Schritt, von dem wir aber noch weit entfernt sind. Idealerweise könnten wir Routineentscheidungen KI-Assistenten überlassen, von denen wir wissen, dass sie unsere Interessen wirklich vertreten. Derzeit sind die meisten Assistenten oder Empfehlungssysteme allerdings Doppelagenten, die uns nicht nur helfen, sondern uns auch etwas verkaufen wollen.
Was müsste sich ändern?
Ich würde mir wünschen, dass unsere wichtigsten Personal-KI-Assistenten nicht von Google, Facebook oder Amazon kommen. In meinem Buch beschreibe ich, dass ich in der Zukunft bereit wäre, Geld für einen KI-Assistenten zu zahlen, der nur auf meiner Seite steht und dem ich meine Daten anvertrauen kann. Diese KI müsste von einem Unternehmen kommen, dessen einziges Geschäftsmodell darin besteht, seine Nutzer bestmöglich zu beraten.
Künstliche Intelligenz: Versteckt in zahlreichen Geräten
In Ihrem Buch schreiben Sie, dass Sie bereit sind, 100 Euro pro Monat für so ein System auszugeben. Wenn KI-Assistenten künftig eine immer wichtigere Rolle für unser Leben spielen, besteht dann nicht die Gefahr einer Klassengesellschaft? Wer es sich leisten kann, wird bestmöglich beraten, und die anderen machen sich abhängig von Google, Amazon und Facebook.
Natürlich ist das schwierig, das ist die aktuelle Situation aber auch. Aber Sie haben schon recht. Man könnte auch über eine öffentlich-rechtliche Konstruktion nachdenken. Da muss man wiederum sicherstellen, dass nicht der Staat Zugriff auf die Daten hat. Denkbar wären KI-Agenten einer unabhängigen Institution, die zum Teil aus Steuern finanziert werden oder so günstig sind, dass sie sich jeder leisten kann.Vermutlich würde so ein Modell weniger kosten, als ein Netflix-Abo.
Vor einigen Wochen gab es die Meldung, dass eine KI der Firma BlueDot die Gefahren der Corona-Pandemie schon früher vorausgesagt hat als die WHO. Verlassen wir uns gerade bei wichtigen Entscheidungen zu wenig auf künstliche Intelligenz?
Wir sollten KI zumindest öfter als Entscheidungsassistenz-Systeme nutzen, sofern diese wie bei einigen Krebsdiagnosetools gut erprobt sind und nachweislich die Kompetenz von Menschen heben können. Aber der Fall BlueDot weist eigentlich auf ein anderes Problem hin. Diese KI aus Kanada hat Online-Diskussionen unter chinesischen Ärzten ausgewertet, hat also menschliche Informationen, die es schon gab, im Westen sichtbar gemacht. Die chinesischen Behörden hätten zu diesem Zeitpunkt allerdings schon längst Alarm schlagen können, dazu bedarf es grundsätzlich keiner künstlichen Intelligenz. Dieses Beispiel zeigt sehr deutlich, dass eine KI als solche nicht intelligent ist. Es braucht intelligenter Menschen, die eine datenreiche Technologie intelligent und verantwortungsbewusst nutzen.
Mehr zum Thema KI:
Ein Beitrag von: