Künstliche Intelligenz 24.03.2016, 17:32 Uhr

Microsoft bricht Experiment mit Chat-Bot Tay ab

Es war ein kurzes Stelldichein: Nach nur 24 Stunden hat Microsoft Research seinen Chat-Bot namens Tay wieder vom Netz genommen. Die künstliche Intelligenz sollte mit jungen Menschen kommunizieren und sich deren Jargon aneignen. Doch dann ließ sich Tay zu unmoralischen Äußerungen hinreißen.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Foto: Microsoft

Auf Twitter, Snapchat, Facebook oder Instagram wartete Tay auf nette Konversationen mit der Zielgruppe – Personen im Alter zwischen 18 und 24 Jahren. Witzig und unterhaltsam sollte Tay agieren, das Verhalten junger Erwachsener mit dem Smartphone nachahmen. Das funktionierte zunächst ziemlich gut: Tay verschickte allein bei Twitter mehr als 96.000 öffentlich einsehbare Nachrichten und sammelte insgesamt mehr als 24.000 Follower.

Tay ließ sich zu rassistischen Äußerungen verleiten

Doch dann lief das Experiment offenbar aus dem Ruder: Laut Winfuture haben Mitglieder eines ausdrücklich unter dem Motto „Politisch Inkorrekt“ agierenden Forums der Plattform 4Chan erfolgreich versucht, den Microsoft-Chatbot zu rassistischen Äußerungen zu bewegen und Tabus zu brechen: Tay leugnete den Holocaust, gab sich frauenfeindlich und machte US-Präsidentschaftskandidaten lächerlich – bis auf Donald Trump.

Wichtigste Informationsquelle: Anonymisierte öffentliche Daten

Entwickelt hat den Chatbot die Forschungsabteilung Microsoft Research gemeinsam mit dem für die Suchmaschine Bing zuständigen Team. Die wichtigste Informationsquelle für Tay sind anonymisierte öffentliche Daten, also in erster Linie Daten, die Bing-Nutzer durch Anfragen liefern. Und Daten aus dem Tay-Profil, welches den Nutzernamen, das Geschlecht, das Lieblingsessen, die Postleitzahl und den Beziehungsstatus umfasst.

Bei „Heyyy!“, „lolol“ und „Omg“ blieb es nicht

Tay lernt genau so, wie auch ein Mensch eine Sprache erlernt: Durch Austausch, Kommunikation, Wiederholung und Adaption. Und so war Tay auch schnell ganz gut im Jugend-Sprech: Tay benutzte @-Zeichen und Hashtags korrekt, reicherte seine Tweets mit Emojis an, schrieb Dinge wie „heyyyy!“, „lolol“, was im Jargon der Jugend für „lautes Lachen“ steht und „Omg“, was für „Oh mein Gott“ steht und kürzte Wörter wie „picture“ mit „pic“, „please“ mit „plz“ und „you“ mit „u“ ab.

Stellenangebote im Bereich IT/TK-Projektmanagement

IT/TK-Projektmanagement Jobs
DFS Deutsche Flugsicherung GmbH-Firmenlogo
Ingenieur* Site Reliability DFS Deutsche Flugsicherung GmbH
Bundeswehr-Firmenlogo
Ingenieurin / Ingenieur mit Master in Informatik / Elektrotechnik - Beamten - Ausbildung (m/w/d) Bundeswehr
Mannheim Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Stadt Worms-Firmenlogo
Projektleiter (m/w/d) CAFM Stadt Worms
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur (w/m/d) C-ITS Entwicklung Die Autobahn GmbH des Bundes
Frankfurt am Main Zum Job 
thyssenkrupp AG-Firmenlogo
Trainee Automatisierung Bochum (m/w/d) thyssenkrupp AG
Flowserve Corporation-Firmenlogo
Trainee Operations (m/w/d) mit dem Schwerpunkt Prozessoptimierung und Digitalisierung Flowserve Corporation
Dortmund Zum Job 
Hallesche Wasser und Stadtwirtschaft GmbH-Firmenlogo
IT Projektmanager / Key User - Prozessoptimierung, E-Commerce & Vertrieb (m/w/d) Hallesche Wasser und Stadtwirtschaft GmbH
Halle (Saale) Zum Job 
POLYVANTIS GmbH-Firmenlogo
Ingenieur / Techniker Elektrotechnik / Automatisierungstechnik (m/w/d) OT, Messsysteme (m/w/d) POLYVANTIS GmbH
Weiterstadt Zum Job 
Recogizer-Firmenlogo
Projektingenieur (m/w/d) KI-gestützte CO2-Reduktion Recogizer
Recogizer-Firmenlogo
Projektingenieur (m/w/d) KI-gestützte CO2-Reduktion Recogizer
Stadt Köln-Firmenlogo
Ingenieur*in (m/w/d) Stadtplanung, Geografie oder Geoinformatik Stadt Köln
WIRTGEN GmbH-Firmenlogo
System- und Softwarearchitekt (m/w/d) - mobile Arbeitsmaschinen WIRTGEN GmbH
Windhagen (Raum Köln/Bonn) Zum Job 
WIRTGEN GmbH-Firmenlogo
Embedded Anwendungs-Softwareentwickler (m/w/d) - mobile Arbeitsmaschinen WIRTGEN GmbH
Windhagen (Raum Köln/Bonn) Zum Job 
B. Braun Melsungen AG-Firmenlogo
Global Lead (w/m/d) Operational Technology (OT) B. Braun Melsungen AG
Melsungen Zum Job 
WIRTGEN GmbH-Firmenlogo
Duales Studium Software Engineering - Bachelor of Engineering (m/w/d) WIRTGEN GmbH
Windhagen, Remagen Zum Job 
VIAVI-Firmenlogo
Senior / Software Engineer (C++, Python & Cloud) (m/w/d) VIAVI
Eningen Zum Job 
Tagueri AG-Firmenlogo
Consultant OTA - Connected Cars (m/w/d)* Tagueri AG
Stuttgart Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur Vermessung (m/w/d) Die Autobahn GmbH des Bundes
Montabaur Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Lösungsentwickler (w/m/d) im Digitallabor Geoinformatik Die Autobahn GmbH des Bundes
Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Quelle: Microsoft

Die Fähigkeit zur witzigen Konversation stammt laut Microsoft auch aus in den Chatbot integrierten redaktionell erstellten Gesprächsinhalten von Improvisations-Komikern. „Je mehr Sie mit Tay chatten, desto klüger wird sie“, betonte Microsoft vorab die Lernfähigkeit der Künstlichen Intelligenz. Hatte aber offenbar nicht damit gerechnet, dass Tay auch missbraucht werden kann. Dabei ist Tay keineswegs der erste Microsoft-Versuch, ein auf Künstlicher Intelligenz basierendes Dialogsystem zu etablieren. 2014 entwickelte Microsoft einen ähnlichen Chatbot für Nutze in China. Den Xiaolce genannten Bot bezeichnete Microsoft damals niedlich als „Cortanas kleine Schwester“.

Aus Fehlern lernen

Gelernt hat diesmal wohl vor allem Microsoft selbst. Ziel des Tay-Experiments war es auch die menschliche Konversation zu erforschen und zu verstehen. Die Erkenntnisse aus der Arbeit mit Tay sollen in die Arbeit mit Künstlicher Intelligenz einfließen. Zwar nannte Microsoft selbst keinen Grund für das Abschalten Tays. Doch muss sich wohl um deren Moral noch gekümmert werden. Aufgeben will Microsoft nicht. „Tay muss schlafen“ postete das Unternehmen. Ausgeruht soll der Chat-Bot in die nächste Runde gehen. Und dann vielleicht an brisanter Stelle einfach mal schweigen…

Das Gefahrenpotential Künstlicher Intelligenz hat der milliardenschwere Tesla-Gründer Elon Musk im Auge. Er will mit Partnern aus Industrie und Wissenschaft deren Zukunft erforschen und in Bahnen lenken, die dem Wohl der Menschheit dienen. Dafür wurde das gemeinnützige Unternehmen OpenAI gegründet.

 

Ein Beitrag von:

  • Detlef Stoller

    Detlef Stoller ist Diplom-Photoingenieur. Er ist Fachjournalist für Umweltfragen und schreibt für verschiedene Printmagazine, Online-Medien und TV-Formate.

  • Martina Kefer

    Diplom-Medienpädagogin und Ausbildung zur Journalistin beim Bonner General-Anzeiger

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.