Bundestagswahl in Deutschland 18.02.2025, 16:00 Uhr

KI im Wahlkampf: Wie Parteien mit KI-Bildern Stimmung machen

Der Bundestagswahlkampf 2025 ist der erste, bei dem KI-generierte Inhalte eine Rolle spielen. Wähler daher müssen besonders aufpassen.

PantherMedia B163014004

Im Vorfeld der Bundestagswahl 2025 müssen Wählerinnen und Wähler mit KI-Fakes rechnen.

Foto: PantherMedia / diamant24

Markus Söder im Superhelden-Kostüm neben den Marvel-Ikonen Iron Man und Captain America; Christian Lindner, wie er die Aktivistin abknutscht, die ihn vor rund zwei Wochen bei einer Veranstaltung in Greifswald mit einer Torte bewarf; und eine Gruppe schwarz umhüllter Frauen in Burkas, die in einer menschenleeren Fußgängerzone böse in die Kamera gucken. Das sind nur drei Beispiele für mit KI erstellte Inhalte in diesem Wahlkampf. Zum ersten Mal in der Geschichte Deutschlands lassen sich Bilder und Videos sehr einfach von jedem Wahlkampfhelfer und Politiker erstellen. Darin liegt für die Parteien ein großes Potenzial, ihre Inhalte besser und verständlicher rüberzubringen, gleichzeitig aber auch ein großes Risiko für Fälschungen und Desinformation.

KI hilft Parteimitgliedern beim Schreiben

KI ist dabei mehr als nur generierte Bilder oder Videos. Die CDU in Nordrhein-Westfalen verwendet etwa einen Chatbot, der Parteimitgliedern beim Schreiben von Texten helfen soll, indem er kommunale Nachrichten durchsucht, was für einen Menschen sehr aufwendig wäre. So könnte die Partei aber etwa leichter vermitteln, welche Auswirkungen bundesweite Forderungen vor Ort haben. Andere Parteien hoffen, mit Chatbots Texte in einem Ton zu verfassen, der bei ihrer jeweiligen Zielgruppe besser ankommt, oder nutzen Algorithmen, um öffentliche Datenbanken danach zu durchsuchen, wo sich potenzielle Wähler am besten ansprechen lassen.

Bundestagswahl: Dr. Stefanie Müller ist KI-generiert

Problematisch wird es dann, wenn die KI-generierten Inhalte für die Öffentlichkeitsarbeit eingesetzt werden. Eigentlich hatten die großen Parteien alle vereinbart, dass solche Inhalte gekennzeichnet werden sollten. Verbindliche Regeln, wie das erfolgen soll, gibt es aber nicht. Söder hat es bei seinem Superhelden-Bild in die Bildunterschrift geschrieben. Andere machen das nicht.

Die AfD Brandenburg nutzte in ihrem Landtagswahlkampf vergangenen September eben besagtes Video mit der Burkaszene, ohne dies als KI-generiert kenntlich zu machen – wenngleich das in diesem Fall noch relativ offensichtlich ist.

Stellenangebote im Bereich Elektrotechnik, Elektronik

Elektrotechnik, Elektronik Jobs
Safran Data Systems GmbH-Firmenlogo
Embedded Software Engineer (m/w/d) Safran Data Systems GmbH
Bergisch Gladbach Zum Job 
naturenergie netze GmbH-Firmenlogo
Meister / Techniker - Steuerungstechnik (m/w/d) naturenergie netze GmbH
Rheinfelden, Donaueschingen Zum Job 
THOST Projektmanagement GmbH-Firmenlogo
Ingenieur*in / Architekt*in / Bauleiter*in (m/w/d) für Großprojekte der Bereiche Infrastruktur (Freileitung, Kabeltiefbau, Bahn) THOST Projektmanagement GmbH
verschiedene Standorte Zum Job 
BG ETEM-Firmenlogo
Ingenieur/in (m/w/d) als Referent/in für die Branche Elektrotechnische Industrie BG ETEM
BG ETEM-Firmenlogo
Ingenieur/in (m/w/d) als Referent/in für die Branche Elektrohandwerk BG ETEM
evd energieversorgung dormagen gmbh-Firmenlogo
Projektmanager Glasfaserausbau (m/w/d) evd energieversorgung dormagen gmbh
Dormagen Zum Job 
HAMBURG WASSER-Firmenlogo
Ingenieur (m/w/d) Leittechnik und Automatisierungstechnik HAMBURG WASSER
Hamburg Zum Job 
THU Technische Hochschule Ulm-Firmenlogo
W2-Professur "Elektronik" THU Technische Hochschule Ulm
Verwaltungs-Berufsgenossenschaft (VBG)-Firmenlogo
Aufsichtspersonen im Sinne des § 18 SGB VII (m/w/d) mit abgeschlossenem Master- oder Diplomstudium in Ingenieurwissenschaften Verwaltungs-Berufsgenossenschaft (VBG)
Hamburg Zum Job 
BG ETEM-Firmenlogo
Ingenieur/in (m/w/d) als Referent/in für die Branche Feinmechanik BG ETEM
Prognost Systems GmbH-Firmenlogo
Technischer Kundenbetreuer / Elektroingenieur (m/w/d) im Customer Support Prognost Systems GmbH
THOST Projektmanagement GmbH-Firmenlogo
Ingenieur*in (m/w/d) in der Terminplanung für Großprojekte im Anlagenbau THOST Projektmanagement GmbH
verschiedene Standorte Zum Job 
THOST Projektmanagement GmbH-Firmenlogo
Consultant (m/w/d) im Projektmanagement der Energiewende THOST Projektmanagement GmbH
Nürnberg, Hannover, Kiel, Berlin, Jena Zum Job 
August Storck KG-Firmenlogo
Mechatroniker (m/w/d) für Kältetechnik / Kälteanlagenbauer (m/w/d) August Storck KG
Ohrdruf Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur (w/m/d) C-ITS Entwicklung Die Autobahn GmbH des Bundes
Frankfurt am Main Zum Job 
Stadt Freiburg-Firmenlogo
Techniker / Meister /Ingenieur (a) im Tunnelbetrieb Stadt Freiburg
Freiburg Zum Job 
Aptar Radolfzell GmbH-Firmenlogo
Projektleiter Industrialisierung Montage (m/w/d) Aptar Radolfzell GmbH
Eigeltingen Zum Job 
KLN Ultraschall AG-Firmenlogo
Werkzeugkonstrukteur Kunststoffverbindungstechnik (w/m/d) KLN Ultraschall AG
Heppenheim (Bergstraße) Zum Job 
Schleifring GmbH-Firmenlogo
Entwicklungsingenieur FPGA / VHDL (m/w/d) Schleifring GmbH
Fürstenfeldbruck Zum Job 
Netzgesellschaft Potsdam GmbH-Firmenlogo
Projektingenieur (m/w/d) Energietechnik - Umspannwerke/Hochspannungsfreileitung - Netzgesellschaft Potsdam GmbH
Potsdam Zum Job 

Der Kreisverband Göppingen der AfD präsentierte hingegen Mitte Dezember das Bild einer blonden Frau namens „Dr. Stefanie Müller“ zusammen mit einem beistehenden Zitat, warum sie AfD-Mitglied geworden sei. Die Dame gibt es nicht, sie ist KI-generiert. Kenntlich gemacht wurde das nirgendwo.

So erkennt man KI-Fakes

Welche Auswirkungen das haben kann, hat das International Panel on the Information Environment (IPIE) ermittelt. Die Schweizer Organisation befragte im September 412 Wissenschaftler aus 66 Ländern zum Thema KI und Desinformation. Rund zwei Drittel zeigten sich besorgt, dass KI-Inhalte Vorurteile und negative Stereotype verstärken würde, Fehlinformationen leichter personalisierbar mache und zu mehr und überzeugenderen Fehlinformationen führen werde.

Die meisten KI-Inhalte sind heute noch sehr einfach zu erkennen, auch weil bei den Parteien keine Profis sitzen, die in stundenlanger Feinarbeit möglichst perfekte Fakes erstellen wollen. Vieles lässt sich schon mit gesundem Menschenverstand erkennen. Sie wissen, dass Söder nie Teil eines Marvel-Kinofilms war und dass Lindner keine Aktivistin auf der Bühne küssen würde. Wer sich nicht sicher ist, ob ein Bild echt oder gefälscht ist, das Ihnen im Internet begegnet, kann mit der Google-Rückwärtssuche herausfinden, wo es zum ersten Mal aufgetaucht ist. Sind das obskure Webseiten, von denen Sie noch nie gehört haben, dann ist das Bild wohl nicht echt. Auch in Bildern und Videos selbst finden sich Hinweise auf KI-Fakes. Das können kleine Fehler sein, etwa ein Finger zu viel oder zu wenig, aber auch zu viel Perfektion. „Dr. Stefanie Müller“ punktete etwa mit einem so makellosen Gesicht, dass es schon fast unheimlich wirkte.

Mit Bauchgefühl KI-Fakes enttarnen

Dieses Bauchgefühl ist übrigens auch ein guter Ratgeber. Wissenschaftler nennen es den „Uncanny-Valley-Effekt“. Er ist seit den 1970er-Jahren bekannt. Grob gesagt besagt er, dass Menschen Roboter oder gezeichnete Figuren mehr akzeptieren, je realistischer sie aussehen – mit einer Ausnahme: Bilder, die fast, aber nicht ganz echt sind, wirken auf uns unheimlich und verstörend. Diesen Abfall an Akzeptanz nennen Forscher das „Uncanny Valley“. Es wird erst bei Fotorealismus wieder überwunden. Darin liegt aber auch das nächste Problem, denn KI-Inhalte schaffen es immer häufiger, dieses Uncanny Valley eben zu überwinden und täuschend echt auszusehen.

Zudem sind aktuelle KIs nicht gut darin, neutrale Inhalte zu generieren: „Bereits bei vergangenen Experimenten mit Studierenden habe ich festgestellt, dass KI aufgrund historischer Datensätze bestimmte Parteien oder Narrative bevorzugen kann – nicht, weil sie neutral analysiert, sondern weil sie auf vergangene Wahlkämpfe trainiert wurde“, sagt Michael Schwertel, Professor für Medienmanagement an der CBS International Business School, „Das zeigt sich besonders in Wortwahl und Slogans, die in großen Mengen verarbeitet wurden.“ Hat eine Partei zum Beispiel oft genug mit Slogans wie „ABC – Die beste Partei“ geworben, reproduziert KI diese Annahme. Im aktuellen Wahlkampf seien die KI-generierten Inhalte der Parteien noch überschaubar. Doch wenn in vier Jahren wieder gewählt wird, dürfte das zu einem größeren Problem werden.

Nicht in die KI-Falle tappen

Übrigens: KI-Inhalte der Parteien stehen nicht außerhalb des deutschen Rechtssystems. Die AfD Brandenburg wurde zuletzt von der Kommission für Jugendmedienschutz (KJM) aufgefordert, ihr oben erwähntes Video so einzuschränken, dass es Jugendliche unter 16 Jahren nicht mehr sehen können. Es würde „pauschale Stereotype“ bedienen, etwa Menschen mit dunkler Hautfarbe als bedrohlich darstellen. Nach Jugendschutzrecht ist das verboten. Die AfD reagierte darauf, indem sie das Video erneut postete und gegen die Kommission wetterte – wieder, ohne es als KI-generiert zu kennzeichnen.

Ein Beitrag von:

  • Christoph Sackmann

    Christoph Sackmann, geboren 1983 in Dortmund, studierte Geschichte und Soziologie und absolvierte von 2010 bis 2012 ein Volontariat bei Hubert Burda Media an der Journalistenschule in München.
    Davor, währenddessen und danach schrieb er unter anderem für die „WAZ“, die „Neue Westfälische“, „Chip“, den „FOCUS“ und „FOCUS Online“. Zudem entwickelte er das Lifestyle-Magazin „treat“ und leitete ein Jahr lang das Portal „Finanzen100.de“.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.