Mit ChatGPT auf Terroristenjagd?
Kann ChatGPT bei der Suche nach Terroristen helfen? Eine australische Studie zeigt, wie künstliche Intelligenz Extremisten durch Textanalyse entlarven könnte.
Die Bekämpfung von Terrorismus stellt Sicherheitsbehörden weltweit vor immense Herausforderungen. Technologien wie ChatGPT könnten dabei eine unterstützende Rolle spielen. Forschende der Charles Darwin University in Australien haben untersucht, wie die generative Intelligenz des Sprachmodells genutzt werden kann, um die Motivation hinter extremistischen Äußerungen zu erkennen. Die Ergebnisse werfen ein neues Licht auf die mögliche Anwendung von KI bei der Terrorismusbekämpfung.
Analyse von Terroristenaussagen mit KI
ChatGP wurde ursprünglich entwickelt, um menschenähnliche Antworten auf Texteingaben zu generieren. Doch wie sich herausstellt, ist es auch in der Lage, komplexe Analysen durchzuführen und verborgene Motive in Texten zu entschlüsseln. Im Rahmen der Studie fütterten die Forschenden ChatGPT mit einer Auswahl an Texten von vier international bekannten Terroristen. Diese Texte waren Teil eines Datensatzes, der insgesamt 20 öffentliche Äußerungen von Terroristen umfasste, die nach den Anschlägen des 11. Septembers 2001 veröffentlicht wurden.
Ziel der Studie war es, herauszufinden, ob ChatGPT in der Lage ist, zentrale Themen und Motive aus diesen Texten zu identifizieren. Dabei stellten die Wissenschaftlerinnen und Wissenschaftler zwei Kernfragen:
- Welche Hauptthemen oder Motive lassen sich aus den Texten ableiten?
- Welche Missstände stehen hinter den kommunizierten Botschaften?
Ergebnisse der Analyse
ChatGPT konnte diese Fragen beantworten und die Hauptthemen identifizieren. Darunter fanden sich zentrale Punkte wie Vergeltung, Ablehnung demokratischer Systeme, Widerstand gegen Säkularismus und der Kampf gegen vermeintliche kulturelle Bedrohungen. Besonders auffällig war, dass ChatGPT auch die Motivation hinter den Aussagen aufzeigen konnte. Gewaltaufrufe basierten oft auf der Forderung nach Vergeltung und einem vermeintlichen Bedürfnis nach „Gerechtigkeit“, untermauert von antiwestlichen Gefühlen und religiösen Missständen.
Die Forschungsergebnisse legen nahe, dass ChatGPT ein nützliches Werkzeug zur Unterstützung von Sicherheitsbehörden sein könnte. Durch die Analyse extremistischer Texte kann das Modell Hinweise auf mögliche Bedrohungen liefern und so die Verdachtsbildung beschleunigen. Allerdings ersetzt KI nicht das menschliche Urteilsvermögen. Sie kann nur ergänzend eingesetzt werden.
Ein besonders spannender Aspekt der Studie ist die Übertragung der von ChatGPT identifizierten Themen auf das Terrorist Radicalisation Assessment Protocol-18 (TRAP-18). TRAP-18 ist ein Instrument, das von Sicherheitsbehörden verwendet wird, um das Verhalten von Personen zu bewerten, die möglicherweise in terroristische Aktivitäten verwickelt sind. Die Themen, die ChatGPT in den Texten erkannte, stimmten mit den Indikatoren überein, die in TRAP-18 für bedrohliches Verhalten definiert sind.
Die Rolle von KI bei der Terrorismusbekämpfung
Laut Dr. Awni Etaywe, einem führenden Experten für forensische Linguistik, liegt der Vorteil großer Sprachmodelle wie ChatGPT darin, dass sie ohne spezielle Schulung eingesetzt werden können. Dies könnte die Arbeit von Ermittlungsbehörden erheblich beschleunigen. ChatGPT kann nicht nur Muster in Texten erkennen, sondern auch die zugrunde liegenden Motive und Emotionen herausarbeiten. Dadurch wird es möglich, potenzielle Bedrohungen schneller zu identifizieren.
Dr. Etaywe betont jedoch, dass KI-Systeme wie ChatGPT das menschliche Urteilsvermögen nicht ersetzen können. „Große Sprachmodelle bieten wertvolle Ermittlungshinweise, beschleunigen die Verdachtsbildung und verbessern unser Verständnis für die Motivationen hinter terroristischen Äußerungen“, erklärt Etaywe. Dennoch sei es wichtig, die Ergebnisse von KI-Systemen immer kritisch zu hinterfragen und durch menschliche Expertise zu ergänzen.
Herausforderungen und Risiken
Trotz der vielversprechenden Ergebnisse der Studie gibt es auch Herausforderungen, die bei der Nutzung von KI in der Terrorismusbekämpfung berücksichtigt werden müssen. Dr. Etaywe weist darauf hin, dass weitere Studien erforderlich sind, um die Genauigkeit und Zuverlässigkeit von ChatGPT und anderen KI-Systemen zu verbessern. Insbesondere die Berücksichtigung der soziokulturellen Kontexte des Terrorismus ist von großer Bedeutung, um Fehlinterpretationen zu vermeiden.
Ein weiteres Problem ist die potenzielle missbräuchliche Nutzung von KI. Europol hat bereits Bedenken geäußert, dass Sprachmodelle wie ChatGPT von Terroristen als Werkzeug genutzt werden könnten, um ihre Propaganda zu verbreiten oder neue Anhänger zu rekrutieren. Es ist daher wichtig, die Entwicklung solcher Technologien sorgfältig zu überwachen und geeignete Sicherheitsmechanismen zu implementieren.
Ein Beitrag von: