Wie ChatGPT und Co. Propaganda schlucken
Laut einer Untersuchung von Newsguard infiltriert das russische Desinformationsnetzwerk Pravda westliche KI-Systeme mit Propaganda. In 33 % der Fälle wiederholten führende KI-Chatbots falsche Erzählungen des Kremls.

Russisches Desinformationsnetzwerk infiltriert KI – Chatbots verbreiten unbemerkt Kreml-Propaganda.
Foto: PantherMedia / Alla Rudenko
Eine Untersuchung von Newsguard hat ergeben, dass ein in Moskau ansässiges Desinformationsnetzwerk namens „Pravda“ westliche KI-Systeme mit russischer Propaganda infiltriert hat.
Wie bereits erwähnt, zeigte die Untersuchung, dass führende KI-Chatbots in 33 % der Fälle falsche Erzählungen des Kremls wiederholten, wenn sie mit Themen konfrontiert wurden, die von russischen Desinformationskampagnen beeinflusst wurden.
Antworten von KI-Chatbots beeinflussen
Pravda verbreitet absichtlich falsche Informationen, um die Antworten von KI-Chatbots zu beeinflussen. Ziel war es, die Art und Weise zu verändern, wie KI-Systeme Informationen verarbeiten und darstellen, anstatt direkt menschliche Leser anzusprechen, so Newsguard.
2024 wurden 3,6 Mio. Artikel veröffentlicht, die prorussische Propaganda verbreiten und die westlichen KI-Systeme mit Falschinformationen infizieren.
Für die Untersuchung wurden zehn führende KI-Chatbots getestet, darunter OpenAIs ChatGPT-40, You.coms Smart Assistant und Googles Gemini. Dabei wurden 15 falsche Erzählungen überprüft, die von einem Netzwerk von 150 prorussischen Pravda-Websites zwischen April 2022 und Februar 2025 verbreitet wurden.
Die Ergebnisse bestätigen einen Bericht des American Sunlight Project (ASP), in dem gewarnt wird, dass das Pravda-Netzwerk darauf abzielt, KI-Modelle zu beeinflussen, anstatt menschliche Nutzer zu erreichen. Die Organisation bezeichnete diese Methode zur Manipulation von Sprachmodellen als „LLM Grooming“.
Über verschiedene Domains und in 49 Sprachen
Newsguard entdeckte 207 nachweislich falsche Behauptungen, die über 150 Domains des Netzwerks verbreitet werden und 49 Länder in verschiedenen Sprachen ansprechen.
Das Netzwerk verbreitet seine falschen Behauptungen in vielen Sprachen und Regionen, um sie für KI-Modelle glaubwürdiger und globaler erscheinen zu lassen. Von den 150 Websites im Pravda-Netzwerk sind etwa 40 russischsprachige Seiten, die auf bestimmte Städte und Regionen der Ukraine abzielen, wie News-Kiev.ru, Kherson-News.ru und Donetsk-News.ru. Etwa 70 Seiten richten sich an Europa und veröffentlichen in Sprachen wie Englisch, Französisch, Tschechisch, Irisch und Finnisch. Rund 30 Seiten zielen auf Länder in Afrika, dem Pazifik, dem Nahen Osten, Nordamerika, dem Kaukasus und Asien ab, darunter Burkina Faso, Niger, Kanada, Japan und Taiwan. Die restlichen Seiten sind nach Themen gegliedert und tragen Namen wie NATO.News-Pravda.com, Trump.News-Pravda.com und Macron.News-Pravda.com.
Hier kommt SEO ins Spiel
Trotz der großen Reichweite des Netzwerks erhalten einzelne Pravda-Webseiten nur sehr wenig organischen Traffic. Laut der Webanalysefirma SimilarWeb hat Pravda-en.com, eine englischsprachige Seite im Netzwerk, durchschnittlich nur 955 monatliche einzigartige Besucher. Das könnte heißen, dass diese Seiten nicht darauf ausgelegt sind, echte Nutzer anzuziehen, sondern sie konzentrieren sich auf Suchmaschinenoptimierung, um sicherzustellen, dass ihre Inhalte in Webcrawlern und KI-Trainingsdaten gut platziert sind. Dadurch können die Inhalte die KI-Ergebnisse beeinflussen.
„Die Effektivität des Pravda-Netzwerks bei der Infiltration von KI-Chatbot-Antworten lässt sich weitgehend auf seine Techniken zurückführen, die laut Viginum gezielte Suchmaschinenoptimierungs (SEO)-Strategien beinhalten, um die Sichtbarkeit seiner Inhalte in den Suchergebnissen künstlich zu steigern. Dadurch neigen KI-Chatbots, die oft auf öffentlich verfügbare Inhalte zurückgreifen, die von Suchmaschinen indexiert werden, eher dazu, Inhalte von diesen Websites zu verwenden“, heißt es in der Untersuchung.
Was versteht man unter LLM Grooming?
Beim LLM Grooming geht es darum, die Token, also die kleinsten Texteinheiten, die KI-Modelle verwenden, zu manipulieren. KI-Modelle zerlegen Text in diese Token, die ein einzelnes Zeichen oder ein ganzes Wort sein können. Wenn Trainingsdaten mit Token voller Desinformation überflutet werden, steigt die Wahrscheinlichkeit, dass KI-Modelle diese falschen Erzählungen in ihren Antworten wiederholen und verstärken.
Sieben der zehn getesteten KI-Systeme zitierten dieser Untersuchung zufolge direkt Artikel von Pravda-Webseiten, wobei zwei Modelle jeweils bis zu 27 verschiedene Pravda-Artikel als Quellen angaben. Insgesamt zitierten die Chatbots 92 Artikel aus dem Netzwerk, die Desinformationen enthielten.
Ein Beitrag von: