Asset Publisher

Politsnack

Wie Deep Fakes Wahlen beeinflussen können

by Ferdinand Alexander Gehringer, Christopher Nehring, Mateusz Łabuz
Im bevorstehenden Superwahljahr 2024 stellen KI-generierte Deep Fakes weltweit eine große Bedrohung für die Wahlintegrität dar. Von der Slowakei über die USA bis hin zur Türkei verwischen manipulierte Audio-, Bild- oder Videodateien die Grenzen zwischen Fiktion und Realität und untergraben das Vertrauen der Öffentlichkeit in verfügbare Informationen. Die Bekämpfung von Deep Fakes erfordert robuste Verteidigungsstrategien, Digitalkompetenz-Initiativen und ethische Leitlinien für die Nutzung von KI in der politischen Kommunikation, um die Integrität demokratischer Prozesse zu schützen.

Asset Publisher

Im Superwahljahr 2024 wird fast die Hälfte der Weltbevölkerung zur Wahl aufgerufen. Doch die Entwicklung künstlicher Intelligenz hat neue Herausforderungen für die Integrität von Informationen und die Sicherheit von Wahlprozessen geschaffen. Besonders besorgniserregend ist das manipulative Potenzial von Deep Fakes, d.h. KI-generierte oder KI-manipulierte Bild-, Audio- oder Videodateien, die bestehenden Personen, Objekten oder Orten ähneln und für den Empfänger echt und wahrheitsgemäß erscheinen (Definition aus dem EU-AI-Gesetz). Das manipulative Potenzial von Deep Fakes wurde bereits in einer Vielzahl von Fällen beobachtet – zum Beispiel bei den Präsidentschaftswahlen in der Slowakei, wo ein Kandidat in einem Audio-Deep Fake vermeintlich über Wahlbetrug spricht, oder im Vorfeld der US-Wahlen, bei denen Computerstimmen, die Joe Biden imitierten, Menschen versuchten vom Wählen abzuhalten (so genannte „Robocalls“). In der Türkei wurde das zerstörerische Potenzial von Deep Fakes offensichtlich, als sich ein Kandidat von der Präsidentschaftswahl zurückzog, nachdem per Deep Fake erstelltes pornografisches Material von ihm aufgetaucht war. Fälle wie diese zeigen, dass die Frage der Untergrabung demokratischer Wahlen durch Deep Fakes nicht mehr eine Frage des „ob“, sondern des „wann“, „wie“ und „in welchem Ausmaß“ ist. Diese Ausmaß zu messen und seine Auswirkungen zu quantifizieren, bleibt schwierig und erfordert den Aufbau eines methodologischen Rahmens, der die spezifische Form des verwendeten Deep Fake-Materials berücksichtigt.

Während Fälle wie die türkische Wahl direkte politische Folgen sichtbar machen, die ein Deep Fake haben kann, besteht eine systematischere Gefahr in den kumulativen psychologischen und sozialen Auswirkungen. Die bloße Tatsache, dass Deep Fake-Technologie existiert und genutzt wird, reicht aus, um das Vertrauen in jede gegebene Information zu untergraben. So können Angst und Misstrauen, die Deep Fakes in einer Bevölkerung hervorrufen, auf politische Prozesse und Kommunikation mächtige, wenn auch schwer messbare Auswirkungen haben. Kurz gesagt: Wenn alles potenziell ein Deep Fake sein könnte, besteht immer Raum für Zweifel. Die Verzerrung von Online-Debatten wird deutlich anhand eines aktuellen Beispiels: einige Kommentatoren mit erheblicher Reichweite behaupteten, dass ein von der israelischen Regierung veröffentlichtes Bild, das tote Kinder nach dem Hamas-Angriff zeigte, eine KI-Fälschung sei.

Auch in Deutschland nehmen die Fälle politischer Deep Fakes ebenfalls zu. Der prominenteste Fall ist ein von linken Aktivisten erstelltes Deep Fake-Video, welches Bundeskanzler Scholz zeigt, wie er ein AfD-Verbot fordert. Generell scheinen besonders Politiker und Gruppen, die mit der AfD in Verbindung stehen, am ehesten Deep Fakes für ihre Zwecke einzusetzen. Ein Beispiel ist das massenhafte Teilen von Deep-Fake-Audios, mit dem Ziel die Nachrichtensendung Tagesschau zu diskreditieren.

Die besorgniserregendsten Konsequenzen von Deep Fakes sind ihre kumulativ psychologischen und sozialen Auswirkungen.

Um die schädlichen Auswirkungen von Deep Fakes wirksam zu bekämpfen, sollten eine Reihe von Maßnahmen ergriffen werden.


Aufbau von Schutzvorkehrungen


Der Aufbau von Schutzvorkehrungen gegen die negativen Auswirkungen von Fälschungen sollte Maßnahmen zum Schutz, zur Verbesserung der Informations- und Wahlintegrität sowie der Widerstandsfähigkeit umfassen.

Politische und öffentliche Institutionen sollten klare Abwehr- und Reaktionsstrategien entwickeln und einführen, um die Integrität von Wahlen und Informationen zu gewährleisten. Darüber hinaus sollten engagierte Institutionen regelmäßig über die neuesten Entwicklungen in verschiedenen Medien berichten und die aktuellen Narrative, Desinformationskampagnen und verwendeten Fälschungen veröffentlichen. Die Kommunikation mit der Gesellschaft über aktuelle Bedrohungen und Kampagnen schafft zusätzliches Bewusstsein.


Darüber hinaus sollten politische und mediale Akteure gemeinsame ethische Standards für den Einsatz von KI in der politischen Kommunikation, im Wahlkampf, in der Werbung und in der Berichterstattung festlegen, veröffentlichen und durchsetzen.

Ein Verhaltenskodex sollte klare Grenzen dafür setzen, wann KI-gestützte Werkzeuge im Wahlprozess eingesetzt werden können und wann sie nicht mehr verwendet werden dürfen.


Medien- und KI-spezifische Maßnahmen zur Förderung der Digitalkompetenzen müssen unverzüglich verstärkt werden. Programme und Bildungsmaßnahmen, die auf eine stärkere Sensibilisierung und Widerstandsfähigkeit abzielen, sollten Teil eines Wahlvorbereitungslehrplans für Entscheidungsträgerinnen und -träger, Kandidatinnen und Kandidaten, aber auch Beamtinnen und Beamte, Journalistinnen und Journalisten sowie die breite Öffentlichkeit werden. Daher sollte eine entsprechende Vorbereitung Bestandteil des Lehrplans werden.


Regeln und Vorschriften, das heißt Bestimmungen des EU-KI-Gesetzes oder Geschäftsbedingungen und Gemeinschaftsstandards von Social-Media-Plattformen, müssen energisch durchgesetzt werden. Sogenannte „Deep Fake Response Units“ sollen wahlbezogene Fälschungen in letzter Minute aufdecken. Der Gesetzgeber könnte auch den Erlass zusätzlicher (z. B. wahlbezogener) Vorschriften in Erwägung ziehen. Die Zusammenarbeit und öffentlich-private Partnerschaften zwischen politischen Akteuren, Social-Media-Unternehmen, traditionellen Medien und der Forschung können zu einem verstärkten Bewusstsein, rechtzeitiger Löschung, Demobilisierung und Entlarvung von Inhalten beitragen.


Der öffentliche und der private Sektor zusammenarbeiten, um Methoden zur Erkennung von Deep Fakes zu stärken und ihre Verfügbarkeit zu erhöhen. Auch die Strafverfolgungsbehörden sollten in angemessene Maßnahmen in diesem Zusammenhang investieren und die digitalen Kompetenzen entwickeln, die erforderlich sind, um schädliche Inhalte zu erkennen und somit schneller zu reagieren.


Um die Folgen von Deep Fakes zu verstehen, muss ein methodischer Rahmen für die Bewertung ihrer Auswirkungen geschaffen werden. Auch wenn der manipulative Einsatz von Deep Fakes noch keine Wahl entschieden hat, ist es nur eine Frage der Zeit, bis der Einfluss von Deep Fakes auf Wahlen und den Wahlprozess zunimmt.


Gerade in einem Superwahljahr wie 2024 ist es an der Zeit, die notwendigen Maßnahmen einzuleiten und umzusetzen, um für künftige Wahlen gerüstet zu sein.

Asset Publisher

Contact

Ferdinand Alexander Gehringer

Ferdinand Alexander Gehringer

Homeland and cyber security

ferdinand.gehringer@kas.de +49 30 26996 3709

comment-portlet

Asset Publisher

About this series

Rund um die Themen Kommunikation, Kampagnenmanagement und Digitale Strategie gibt der Blog Einblicke in aktuelle Trends der Politischen Kommunikation. Kommunikationsexpertinnen und -experten geben innovative, praktische Tipps für die politische Kampagne und für die Umsetzung.

Saskia Gamradt

Saskia Gamradt

Political Communication

saskia.gamradt@kas.de +49 30 26996-3252

Asset Publisher