Künstliche Intelligenz 24.03.2016, 17:32 Uhr

Microsoft bricht Experiment mit Chat-Bot Tay ab

Es war ein kurzes Stelldichein: Nach nur 24 Stunden hat Microsoft Research seinen Chat-Bot namens Tay wieder vom Netz genommen. Die künstliche Intelligenz sollte mit jungen Menschen kommunizieren und sich deren Jargon aneignen. Doch dann ließ sich Tay zu unmoralischen Äußerungen hinreißen.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Foto: Microsoft

Auf Twitter, Snapchat, Facebook oder Instagram wartete Tay auf nette Konversationen mit der Zielgruppe – Personen im Alter zwischen 18 und 24 Jahren. Witzig und unterhaltsam sollte Tay agieren, das Verhalten junger Erwachsener mit dem Smartphone nachahmen. Das funktionierte zunächst ziemlich gut: Tay verschickte allein bei Twitter mehr als 96.000 öffentlich einsehbare Nachrichten und sammelte insgesamt mehr als 24.000 Follower.

Tay ließ sich zu rassistischen Äußerungen verleiten

Doch dann lief das Experiment offenbar aus dem Ruder: Laut Winfuture haben Mitglieder eines ausdrücklich unter dem Motto „Politisch Inkorrekt“ agierenden Forums der Plattform 4Chan erfolgreich versucht, den Microsoft-Chatbot zu rassistischen Äußerungen zu bewegen und Tabus zu brechen: Tay leugnete den Holocaust, gab sich frauenfeindlich und machte US-Präsidentschaftskandidaten lächerlich – bis auf Donald Trump.

Wichtigste Informationsquelle: Anonymisierte öffentliche Daten

Entwickelt hat den Chatbot die Forschungsabteilung Microsoft Research gemeinsam mit dem für die Suchmaschine Bing zuständigen Team. Die wichtigste Informationsquelle für Tay sind anonymisierte öffentliche Daten, also in erster Linie Daten, die Bing-Nutzer durch Anfragen liefern. Und Daten aus dem Tay-Profil, welches den Nutzernamen, das Geschlecht, das Lieblingsessen, die Postleitzahl und den Beziehungsstatus umfasst.

Bei „Heyyy!“, „lolol“ und „Omg“ blieb es nicht

Tay lernt genau so, wie auch ein Mensch eine Sprache erlernt: Durch Austausch, Kommunikation, Wiederholung und Adaption. Und so war Tay auch schnell ganz gut im Jugend-Sprech: Tay benutzte @-Zeichen und Hashtags korrekt, reicherte seine Tweets mit Emojis an, schrieb Dinge wie „heyyyy!“, „lolol“, was im Jargon der Jugend für „lautes Lachen“ steht und „Omg“, was für „Oh mein Gott“ steht und kürzte Wörter wie „picture“ mit „pic“, „please“ mit „plz“ und „you“ mit „u“ ab.

Stellenangebote im Bereich IT/TK-Projektmanagement

IT/TK-Projektmanagement Jobs
Die Autobahn GmbH des Bundes-Firmenlogo
Fachingenieur (w/m/d) BIM Die Autobahn GmbH des Bundes
Technische Hochschule Deggendorf-Firmenlogo
Forschungsprofessur oder Nachwuchsprofessur (m/w/d) Industrielle Robotik Technische Hochschule Deggendorf
Fresenius Kabi Deutschland GmbH-Firmenlogo
Projekt IT-Ingenieur (m/w/d) Fresenius Kabi Deutschland GmbH
Friedberg Zum Job 
Mercer Stendal GmbH-Firmenlogo
Betriebstechniker (m/w/d) Prozessleittechnik Mercer Stendal GmbH
Arneburg Zum Job 
Wirtgen GmbH-Firmenlogo
Project Manager Product Lifecycle Management (m/w/d) Wirtgen GmbH
Windhagen Zum Job 
Hochschule Osnabrück-Firmenlogo
Wissenschaftl. Mitarbeiter*in in der Talentakademie "Smart Factory & Products" Hochschule Osnabrück
Osnabrück Zum Job 
Evonik Operations GmbH-Firmenlogo
Ingenieur (m/w/d) Informatik / Elektrotechnik / Automatisierungstechnik / Chemische Produktion Evonik Operations GmbH
Regierungspräsidium Freiburg-Firmenlogo
BIM-Manager (w/m/d) Regierungspräsidium Freiburg
Freiburg im Breisgau Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur (w/m/d) Informationssicherheit Die Autobahn GmbH des Bundes
Frankfurt Zum Job 
NORDEX GROUP-Firmenlogo
SCADA Projektingenieur (m/w/d) NORDEX GROUP
Hamburg, Rostock Zum Job 
Westfälische Hochschule-Firmenlogo
Professur Künstliche Intelligenz und Industrielle Automation (W2) Westfälische Hochschule
Gelsenkirchen Zum Job 
TU Bergakademie Freiberg-Firmenlogo
W2-Professur "Deep Learning" TU Bergakademie Freiberg
Freiberg Zum Job 
Niedersächsische Landesbehörde für Straßenbau und Verkehr-Firmenlogo
BIM-Manager (m/w/d) für Bauprojekte Niedersächsische Landesbehörde für Straßenbau und Verkehr
Hannover Zum Job 
FlowChief GmbH-Firmenlogo
Techniker:in Automatisierung (SCADA) (m/w/d) FlowChief GmbH
Wendelstein Zum Job 
Wirtgen GmbH-Firmenlogo
Software-Ingenieur (m/w/d) Elektrotechnik im Bereich Steuerungssoftware für mobile Arbeitsmaschinen Wirtgen GmbH
Windhagen Zum Job 
Frankfurt University of Applied Sciences-Firmenlogo
Professur "Software Engineering - Moderne Verfahren" (w/m/d) Frankfurt University of Applied Sciences
Frankfurt am Main Zum Job 
Energie und Wasser Potsdam GmbH-Firmenlogo
Geoinformatiker (m/w/d) / Vermessungsingenieur (m/w/d) als Projektleiter (m/w/d) GIS - Fachanwendungen Energie und Wasser Potsdam GmbH
Potsdam Zum Job 
CS CLEAN SOLUTIONS GmbH-Firmenlogo
Mitarbeiter für die Steuerungstechnik Software (m/w/d) CS CLEAN SOLUTIONS GmbH
Ismaning bei München Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Hochschule Osnabrück-Firmenlogo
Tandem-Professur Robotik, Data Science and AI, Digitalisierte Wertschöpfungsprozesse Hochschule Osnabrück
Osnabrück, Lingen Zum Job 
Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Quelle: Microsoft

Die Fähigkeit zur witzigen Konversation stammt laut Microsoft auch aus in den Chatbot integrierten redaktionell erstellten Gesprächsinhalten von Improvisations-Komikern. „Je mehr Sie mit Tay chatten, desto klüger wird sie“, betonte Microsoft vorab die Lernfähigkeit der Künstlichen Intelligenz. Hatte aber offenbar nicht damit gerechnet, dass Tay auch missbraucht werden kann. Dabei ist Tay keineswegs der erste Microsoft-Versuch, ein auf Künstlicher Intelligenz basierendes Dialogsystem zu etablieren. 2014 entwickelte Microsoft einen ähnlichen Chatbot für Nutze in China. Den Xiaolce genannten Bot bezeichnete Microsoft damals niedlich als „Cortanas kleine Schwester“.

Aus Fehlern lernen

Gelernt hat diesmal wohl vor allem Microsoft selbst. Ziel des Tay-Experiments war es auch die menschliche Konversation zu erforschen und zu verstehen. Die Erkenntnisse aus der Arbeit mit Tay sollen in die Arbeit mit Künstlicher Intelligenz einfließen. Zwar nannte Microsoft selbst keinen Grund für das Abschalten Tays. Doch muss sich wohl um deren Moral noch gekümmert werden. Aufgeben will Microsoft nicht. „Tay muss schlafen“ postete das Unternehmen. Ausgeruht soll der Chat-Bot in die nächste Runde gehen. Und dann vielleicht an brisanter Stelle einfach mal schweigen…

Das Gefahrenpotential Künstlicher Intelligenz hat der milliardenschwere Tesla-Gründer Elon Musk im Auge. Er will mit Partnern aus Industrie und Wissenschaft deren Zukunft erforschen und in Bahnen lenken, die dem Wohl der Menschheit dienen. Dafür wurde das gemeinnützige Unternehmen OpenAI gegründet.

 

Ein Beitrag von:

  • Detlef Stoller

    Detlef Stoller ist Diplom-Photoingenieur. Er ist Fachjournalist für Umweltfragen und schreibt für verschiedene Printmagazine, Online-Medien und TV-Formate.

  • Martina Kefer

    Diplom-Medienpädagogin und Ausbildung zur Journalistin beim Bonner General-Anzeiger

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.