wissen.de Artikel

KI im Wahlkampf – gefährlich oder unbedenklich?

In fünf Tagen ist Bundestagswahl. Dadurch, dass die Wahl früher stattfindet als ursprünglich geplant, mussten die Parteien möglichst schnell in den Wahlkampf starten. Doch dafür steht ihnen anders als bei der Bundestagswahl vor vier Jahren nun künstliche Intelligenz als mächtiges Werkzeug für eine schnelle Generierung von Inhalten bereit. Welche Parteien nutzen KI für ihren Wahlkampf? Wie wirkt sich ihr Einsatz auf uns aus? Und wie können wir KI-generierte Inhalte erkennen?
SSC, 18.02.2025
Symbolbild KI-Content für den Bundestagswahlkampf 2025
Welchen Einfluss hat KI-generierter Content auf den laufenden Wahlkampf?

© Hintergrund: Torsten Asmus, iStock; stilisierte Figuren: komunitestock (l.) und Nuthawut-Somsuk, iStock (r.), beide iStock

„Ich bin einfach nur ein Mädchen von nebenan“, schreibt eine Frau namens Larissa Wagner bei X, ehemals Twitter. In ihrer Profilbeschreibung bezeichnet sie sich als „KI-Maus“. „Larissa Wagner“ ist eine KI-generierte Influencerin, die sich auf ihrem Profil in mehreren täglichen Posts – untermalt mit KI-generierten Bildern, auf denen ihre Augen nicht immer menschlich aussehen – für die AfD ausspricht. Es ist nicht bekannt, ob hinter ihr eine Einzelperson oder sogar die AfD selbst steckt. Doch auch unabhängig von Larissa ist künstliche Intelligenz längst im aktuellen Wahlkampf angekommen.

Fairnessabkommen ohne AfD und BSW

Die AfD Brandenburg erregte Ende Januar auf ihrem X-Account zum Beispiel Aufsehen mit einem KI-generierten Video. Darin unter anderem zu sehen: Grünen-Vorsitzender Robert Habeck im Jobcenter und beim Müllaufsammeln sowie Gesundheitsminister Karl Lauterbach, wie er von Polizisten verhaftet wird. Das Video ist nicht als KI-generiert gekennzeichnet, die künstliche Erstellung lässt sich ihm mit ein wenig Vorkenntnis jedoch recht deutlich ansehen.

„Obwohl als KI-generiert erkennbar, war die emotionale Wirkung beträchtlich, da das Video ein suggestives Framing nutzte“, schreibt die Bundeszentrale für politische Bildung. „Diese Art der Content-Manipulation ruft emotionale Reaktionen hervor, selbst wenn der Verstand den künstlichen Ursprung erkennt – eine sehr wirksame Form von KI-Propaganda.“

Die anderen großen Parteien sind jedoch strikt gegen diese Form des Wahlkampfes. Ende Dezember haben SPD, Union, Grüne, FDP und Linke sich auf ein gemeinsames Fairnessabkommen zur Bundestagswahl geeinigt. Darin halten die Parteien fest: „Wir kennzeichnen Bild-, Video- oder Tonmaterial, das von KI-Systemen generiert wurde, unmissverständlich, unübersehbar und untrennbar mit dem Inhalt verbunden mit dem Label ‚KI-generierter Inhalt‘. Deepfake-Technologien nutzen wir nicht, um politischen Mitbewerbern Aussagen in den Mund zu legen, die sie nicht tatsächlich getätigt haben.“ Die AfD und das Bündnis Sahra Wagenknecht (BSW) sind hingegen nicht Teil dieses Fairnessabkommens.

KI-Bilder für Narrative

Mit KI lassen sich möglichst schnell möglichst personalisierte Inhalte erstellen. Noch dazu ist es viel günstiger, ein KI-Tool für wenige Euro im Monat zu nutzen als ein Team aus Schauspielern, Kameraleuten und Regisseuren zu bezahlen. „Man kann ja auch bestimmte Bilder, die dort transportiert werden sollen, in der Realität gar nicht einfangen“, sagt Deborah Schnabel von der Bildungsstätte Anne Frank im Interview mit der Deutschen Welle. „Das heißt, man muss sich eigentlich künstlicher Mittel bedienen, um beispielsweise die rassistischen Narrative [der AfD] in Bildern zu bedienen, und da hilft die KI in dem Fall leider sehr gut.“ Aber wie wirken sich KI-generierte Inhalte auf uns aus, selbst wenn wir wissen, dass es sich um solche Inhalte handelt?

„Selbst wenn man als Nutzer erkennt, dass das nicht die Realität ist, kann das Bild im Kopf hängen bleiben. Wenn ich immer wieder sehr viele Posts sehe, die in eine ähnliche Richtung gehen, dann erhöht sich einfach die Wahrscheinlichkeit, dass sich auch Einstellungen verändern können“, erklärt Phillip Müller von der Universität Mannheim. „Das ist aber ein Prozess, der auch nicht innerhalb von zwei, drei Monaten oder gar in der heißen Wahlkampfphase passiert, sondern das passiert über zwei, drei Jahre hinweg.“

So kann man KI-generierte Inhalte erkennen

Um KI-generierte Bilder zu erkennen, hilft es, auf bestimmte Merkmale zu achten. Objekte und Menschen sehen zum Beispiel unnatürlich weichgezeichnet aus, tauchen aus dem Nichts auf oder sind schlicht fehlerhaft. Besonders an der Darstellung von Händen lassen sich KI-generierte Bilder und Videos häufig enttarnen. Denn oft haben diese zu viele oder zu wenig Finger. Bei vielen Videos passen Mundbewegungen außerdem nicht zum Gesagten oder die Mimik wirkt unnatürlich. Auch sollte man sich generell fragen, ob das Dargestellte überhaupt Sinn ergibt und wirklich so geschehen sein kann.

Weitere Artikel aus dem Vornamenlexikon