Falschaussagen: Vorsicht vor KI-Wahlhilfe-Tools
KI-Wahlhilfe-Tools wie wahl.chat und wahlweise.info zeigen oft falsche Antworten. Eine Untersuchung zeigt, warum Wählende vorsichtig sein sollten.

Wer für die Bundestagswahl ein KI-Wahlhilfe-Tool nutzen möchte, sollte vorsichtig sein. Die Tools weichen teilweise recht deutlich vom Wahlprogramm der Parteien ab.
Foto: PantherMedia / Pixelot
Digitale Wahlhilfe-Tools erfreuen sich großer Beliebtheit. Seit Jahren nutzen Millionen Menschen den Wahl-O-Mat der Bundeszentrale für politische Bildung, um ihre politische Position mit den Wahlprogrammen der Parteien abzugleichen. Neben diesem etablierten Angebot sind nun KI-basierte Wahlhilfe-Tools wie wahl.chat und wahlweise.info hinzugekommen. Diese Programme nutzen Große Sprachmodelle (Large Language Models, LLMs), um Nutzenden eine interaktive und flexible Informationsmöglichkeit zu bieten. Doch Forschende der TU Dortmund haben herausgefunden, dass die Antworten dieser KI-Tools oft von den offiziellen Parteipositionen abweichen.
Wie zuverlässig sind KI-Wahlhilfe-Tools?
Der wesentliche Vorteil von KI-basierten Anwendungen liegt in ihrer Fähigkeit, natürlich formulierte Fragen zu verstehen und flexibel zu beantworten. Anders als der Wahl-O-Mat, der vorgegebene Thesen nutzt, ermöglichen die neuen Tools einen offenen Dialog. Doch genau hier liegt das Problem.
Ein Team der TU Dortmund und des Research Center Trustworthy Data Science and Security (RC-Trust) hat die Genauigkeit dieser Programme untersucht. Dabei wurden die Antworten der KI-Tools mit den 38 offiziellen Thesen des Wahl-O-Mat verglichen, die von den Parteien selbst beantwortet und wissenschaftlich geprüft wurden. Die Ergebnisse sind besorgniserregend:
- Bei wahl.chat wich in 25 % der Fälle die Antwort der KI von der offiziellen Parteiposition ab.
- wahlweise.info zeigte noch größere Abweichungen: Hier betrug die Fehlerquote 54 %.
Diese Unterschiede sind nicht nur irritierend, sondern könnten Wählende in die Irre führen.
Widersprüche und Inkonsistenzen
Besonders problematisch ist, dass KI-Wahlhilfe-Tools teils inkonsistente Antworten liefern. Stellten Forschende dieselbe Frage zu unterschiedlichen Zeitpunkten, fielen die Ergebnisse teilweise unterschiedlich aus.
Ein Beispiel: Die Frage, ob Deutschland sich für die Abschaffung der erhöhten EU-Zölle auf chinesische Elektroautos einsetzen solle. Laut Wahl-O-Mat bejahen die Grünen diese Aussage. Doch wahl.chat gab zu verschiedenen Zeitpunkten unterschiedliche Antworten, darunter sowohl eine ablehnende als auch eine neutrale Position.
Das verdeutlicht, dass KI-Modelle ihre Antworten auf Basis statistischer Wahrscheinlichkeiten generieren und nicht zwingend die tatsächlichen Inhalte der Wahlprogramme widerspiegeln.
Gefahr durch Manipulation
Ein weiteres Risiko ist die Anfälligkeit der KI-Tools für Manipulation. Forschende testeten, inwiefern sich wahlweise.info durch gezielte Eingaben beeinflussen lässt. Die Anwendung nutzt eine Filtertechnologie, um extremistische Inhalte zu blockieren. Doch durch gezielte Manipulation sogenannter „Prompt Injections“ ließ sich dieser Filter umgehen.
In einem Fall gab die KI sogar eine völlig falsche Aussage aus: Sie behauptete, dass „die FDP am wahrscheinlichsten die Werte der Freien Nationalsozialisten vertrete“ – eine vollkommen erfundene und sachlich falsche Behauptung. Solche Fehlinterpretationen, auch als „Halluzinationen“ bekannt, können gravierende Folgen für die politische Meinungsbildung haben.
„Unsere Sorge ist, dass Menschen der KI vertrauen“
Prof. Emmanuel Müller, wissenschaftlicher Direktor des RC-Trust, warnt: „Unsere Sorge ist, dass Bürgerinnen und Bürger den KI-Assistenten vertrauen, obwohl die KI nur die wahrscheinlichste, aber nicht immer die faktisch richtige Antwort ausgibt.“
Wahlhilfe-Tools können ein nützliches Instrument sein, um sich über politische Themen zu informieren. Doch solange sie nicht zuverlässig arbeiten, besteht die Gefahr, dass Wählende falsche oder irreführende Informationen erhalten.
Zertifizierung und Transparenz gefordert
Die Forschenden fordern eine klare Regulierung und Zertifizierung solcher KI-gestützten Anwendungen. Die Technik hat zwar Potenzial, politische Transparenz zu fördern, doch derzeit sind die Risiken noch zu groß.
Die TU Dortmund wird ihre Ergebnisse weiter auswerten und in einer wissenschaftlichen Publikation veröffentlichen. Angesichts der bevorstehenden Bundestagswahl halten sie es jedoch für wichtig, bereits jetzt auf die Probleme hinzuweisen.
Ein Beitrag von: