Schluss mit Seximus! Die Künstliche Intelligenz liest mit!
In den sozialen Medien sind Diskriminierungen, rassistische Äußerungen und Sexismus leider an der Tagesordnung. Ein Team aus Studierenden und erfahrenen Wissenschaftlerinnen und Wissenschaftlern hat jetzt eine praktische Methode entwickelt, um Postings und Kommentare besser kontrollieren zu können.
Beleidigungen sind leider an der Tagesordnung, wenn Menschen aufeinandertreffen, die nicht derselben Meinung sind. Das Internet hat dieses Problem allerdings exponentiell anwachsen lassen. Selbst unter harmlosen Artikeln oder höflichen Fragen in Foren sammeln sich Kommentare, die andere Nutzer herabsetzen. Noch kritischer wird es bei kontroversen Themen. Die bloße Masse an Statements erschwert es den Moderatoren der entsprechenden Internetseiten erheblich, rassistische oder sexistische Äußerungen sowie andere Formen der Beleidigungen herauszufiltern. In den sozialen Medien, wo Chat-Verläufe nicht individuell moderiert werden, gelingt es noch weniger, für einen respektvollen Umgangston zu sorgen. Auch wenn die dortigen Moderatoren extreme Kommentare löschen und die User sie auch melden können. Schon die Anonymität des Internets führt dazu, dass verbale Übergriffe sich häufen.
Rufmord im Internet: Mit diesen 7 Tipps schützen Sie sich
Ein Team der Fachhochschule St. Pölten und des AIT Austrian Institute of Technology möchte das ändern. Für einen internationalen Wettbewerb haben die Forschenden eine Methode entwickelt, die sexistische Äußerungen durch eine künstliche Intelligenz (KI) automatisch erkennt. Das Prinzip ließe sich auf weitere Inhalte übertragen.
Künstliche Intelligenz muss die feinen Unterschiede erkennen
Algorithmen, die Sprache nach bestimmten semantischen Zusammenhängen durchforsten, sind nicht neu. Was ist also das Besondere an der neuen künstlichen Intelligenz? Vermutlich ist es ihr Feingefühl. Denn es gibt viele Formen von sexistischen Äußerungen. Die Forschenden haben daher zunächst verschiedene Kategorien festgelegt: Ideologie und Ungleichheit, Stereotype und Herrschaft, Objektifizierung, sexuelle Gewalt, Frauenfeindlichkeit (Misogynie) und nicht-sexuelle Gewalt.
Das klingt machbar. Richtig gefordert haben sie ihre künstliche Intelligenz durch eine weitere Unterscheidung: Bei welchen Kommentaren handelt es sich tatsächlich um sexistische Aussagen und welche Statements sind ironisch oder sarkastisch gemeint? Diese Einteilung gelingt selbst vielen Menschen nicht. „Wichtig bei der Erkennung sexistischer Inhalte ist, dass wir nicht nur offensichtliche Formen von Sexismus automatisch identifizieren können, sondern auch subtile Formen und Anspielungen, die auf den ersten Blick übersehen werden könnten“, sagt Alexander Schindler, Teamleiter auf Seite des AIT.
Postings von Twitter und Gab fütterten die künstlichen Intelligenz
Die Wissenschaftlerinnen und Wissenschaftler brauchten also eine umfangreiche Datenbasis. Die erhielt sie über den EXIST-Wettbewerb des Bundeswirtschaftsministeriums, der Teilnehmenden Postings der Kurznachrichtendienste Twitter und Gab zur Verfügung stellte. Die Texte lagen in Englisch und in Spanisch vor. Die Forschenden fütterten die künstliche Intelligenz und programmierten Algorithmen, die schließlich das gewünschte Ergebnis brachten: Sexismus kann sich im Netz nicht mehr verstecken.
Mit ihrem Tool, das auf Methoden der künstlichen Intelligenz basiert und Natural Language Processing (NLP) und Machine Learning nutzt, belegte das Team den dritten Platz beim internationalen EXIST-Wettbewerb. Aber das war nicht das Wichtigste: „Ein zentrales Ziel unserer Forschung ist es, stets einen sinnvollen Beitrag zu leisten, um Probleme in unserer Gesellschaft zu lösen. Eine automatisierte Erkennung von sexistischen Äußerungen kann dazu beitragen, den Diskurs in den Sozialen Medien zu verbessern, Problembewusstsein zu stärken und Maßnahmen gegen diskriminierende Inhalte zu setzen“, sagt Matthias Zeppelzauer, Leiter der Forschungsgruppe Media Computing am Institut für Creative\Media/Technologies der FH St. Pölten.
Gefördert wurde die Initiative unter anderem durch das Projekt defalsif-AI, das sich mit einem anderen Bereich im Netz beschäftigt: der Identifizierung von Fake-News.
Mehr lesen über die Möglichkeiten der künstlichen Intelligenz:
- Handlungshilfen für eine menschenzentrierte KI-Einführung
- Künstliche Intelligenz: Forscher schützen Patienten mit einer genialen Idee
- Künstliche Intelligenz zieht in die Fertigungshallen ein
Ein Beitrag von: