Im Superwahljahr 2024 wird fast die Hälfte der Weltbevölkerung zur Wahl aufgerufen. Doch die Entwicklung künstlicher Intelligenz hat neue Herausforderungen für die Integrität dieser Wahlen geschaffen. Besonders besorgniserregend ist das manipulative Potenzial von Deep Fakes, d.h. KI-generierte oder manipulierte Bild-, Audio- oder Videodateien, die bestehenden Personen, Objekten oder Orten ähneln und für den Empfänger echt und wahrheitsgemäß erscheinen (Definition aus dem EU-AI-Gesetz). Das manipulative Potenzial von Deep Fakes wurde bereits in einer Vielzahl von Fällen beobachtet – zum Beispiel bei den Präsidentschaftswahlen in der Slowakei, wo ein Kandidat in einem Audio-Deep Fake vermeintlich über Wahlbetrug spricht, oder im Vorfeld der US-Wahlen, bei denen Computerstimmen, die Joe Biden imitierten, Menschen versuchten vom Wählen abzuhalten. In der Türkei wurde das zerstörerische Potenzial von Deep Fakes offensichtlich, als sich eine Kandidatin von der Präsidentschaftswahl zurückzog, nachdem per Deep Fake erstelltes pornografisches Material von ihr aufgetaucht war. Fälle wie diese zeigen, dass die Frage der Untergrabung demokratischer Wahlen durch Deep Fakes nicht mehr eine Frage des „ob“, sondern des „wann“, „wie“ und „in welchem Ausmaß“ ist. Das Ausmaß des Phänomens zu messen und seine Auswirkungen zu quantifizieren, bleibt schwierig und erfordert den Aufbau eines methodologischen Rahmens, der die spezifische Form des verwendeten Deep Fake-Materials berücksichtigt.
Während Fälle wie die türkische Wahl direkte politische Folgen zeigen, die ein Deep Fake haben kann, besteht eine systematischere Gefahr in den kumulativen psychologischen und sozialen Auswirkungen. Die bloße Tatsache, dass Deep Fake-Technologie existiert, reicht aus, um das Vertrauen in jede gegebene Information zu untergraben und zu einer Verschwommenheit der Grenzen zwischen real und gefälscht zu führen. So können die Angst und das Misstrauen, die Deep Fakes in einer Bevölkerung hervorrufen, auf politische Prozesse und Kommunikation mächtige, wenn auch schwer messbare Auswirkungen haben. Kurz gesagt: Wenn alles potenziell ein Deep Fake sein könnte, besteht immer Raum für Zweifel. Die Verzerrung von Online-Debatten wird deutlich anhand eines aktuellen Beispiels: einige Kommentatoren mit erheblicher Reichweite behaupteten, dass ein von der israelischen Regierung veröffentlichtes Bild, das tote Kinder nach dem Hamas-Angriff zeigte, eine KI-Fälschung sei.
In Deutschland nehmen die Fälle politischer Deep Fakes ebenfalls zu. Der prominenteste Fall ist ein von linken Aktivisten erstelltes Deep Fake-Video, welches Bundeskanzler Scholz zeigt, wie er ein AfD-Verbot fordert. Generell scheinen besonders Politiker und Gruppen, die mit der AfD in Verbindung stehen, am ehesten Deep Fakes für ihre Zwecke einzusetzen. Ein Beispiel ist das massenhafte Teilen von Deep-Fake-Audios, mit dem Ziel die Nachrichtensendung Tagesschau zu diskreditieren.
Um die schädlichen, kumulativen und systematischen Auswirkungen von Deep Fakes wirksam zu bekämpfen, sollten eine Reihe von Maßnahmen ergriffen werden.
Thèmes
À propos de cette série
Die Reihe Monitor behandelt übersichtlich jeweils ein Schwerpunktthema aus der Perspektive der KAS-Expertinnen und -Experten und ordnet es anhand weniger „Punkte zum Mitnehmen“ in den politischen und gesellschaftlichen Kontext ein.
Informations de commande
Die Beiträge erscheinen ausschließlich online und können daher nicht bestellt werden.
Derzeitige Themenschwerpunkte sind „Entwicklungspolitik“, „Nachhaltigkeit“ und „Wahl- und Sozialforschung“. Die Beiträge dieser Unterreihen haben wir zusätzlich zur Gesamtreihe auf eigenen Übersichtsseiten für Sie dargestellt.