Asset Publisher

Der Autokraten-Code: Wenn Künstliche Intelligenz zur politischen Waffe wird

Wie KI unsere Demokratie manipulieren könnte – Einblicke in die ARD-Doku und ein Gespräch über Macht, Moral und Manipulation

In der ARD-Doku „Der Autokraten-Code“ zeigen Alexandra Hardorf und Christiane Schwarz, wie Künstliche Intelligenz genutzt werden könnte, um demokratische Prozesse zu manipulieren. Im Interview mit „Die Politische Meinung“ sprechen sie über ihre Erfahrungen, ethische Herausforderungen und die Auswirkungen von KI auf unsere Demokratie.

Ihr Dokumentarfilm „Der Autokraten-Code“ zeigt, wie eine Expertengruppe mittels Künstlicher Intelligenz einen virtuellen Autokraten generiert und vermarktet. Warum die Mühe? Reichen die analogen Autokraten dieser Welt nicht aus?

Alexandra Hardorf: Glücklicherweise haben wir in Deutschland keinen Autokraten, auch wenn es in manchen Parteien durchaus Tendenzen dahin gibt. Die provokante Frage, die wir uns gestellt haben, lautet: Ist es etwas, was Deutschland möchte, wenn es immer weiter in die Extreme driftet, weil die Gesellschaft keine Lust mehr auf „die da oben“ hat? Möchten wir in Deutschland eine neue Führung, eine Alleinregierung, ohne darüber nachdenken zu müssen, wer führt?

Aber warum haben Sie einen KI-Autokraten entwickelt?

Christiane Schwarz: Wir haben uns entschieden, unsere Grundidee mit KI zu kombinieren, weil KI keine Gefühle hat, weil sie ungefiltert die stärksten Argumente übernimmt und sich gnadenlos durchsetzt – was natürlich alles sehr autokratisch ist. KI nimmt keine Rücksicht auf Moral, solange sie nicht darauf programmiert ist. Noch werden KI-Anwendungen wenig reguliert, und wir müssen darüber nachdenken, wie moralisch eine Maschine denken und handeln sollte. Insofern passen KI und Autokratie aktuell gut zusammen.

Nachdem Sie den „Autokraten-Code“ geknackt haben: Ist das Autokratendasein leichter geworden?

Christiane Schwarz: Zunächst will ich widersprechen: Wir haben den Code nicht geknackt, sondern eher ein Fragezeichen dahinter gesetzt. Unsere Absicht war, so etwas wie eine Awareness-Kampagne für Deutschland zu produzieren: Hallo, Achtung, da draußen ist etwas unterwegs! Glaubt nicht alles, was ihr seht, hört und lest! Die Verbreitung kruder Meinungen und von Mitteilungen jenseits aller Fakten ist durch KI selbstverständlich viel leichter geworden.

Alexandra Hardorf: Dabei sind wir bei Weitem nicht so gerissen, böse und skrupellos vorgegangen, wie es möglicherweise diejenigen tun würden, die KI nutzen, um tatsächlich autokratische Gedanken zu verbreiten.

Worin liegt nach Beendigung Ihres Projekts der zentrale Erkenntnis- und Erfahrungsgewinn mit Blick auf die Zukunft der Demokratie?

Alexandra Hardorf: Die Frage lässt sich mit Blick auf die Zukunft der Demokratie nicht so leicht beantworten.

In der Ankündigung zur Sendung heißt es doch, es sei darum gegangen, ob Künstliche Intelligenz genutzt werden könne, um Demokratien zu schaden…

Christiane Schwarz: Wie ich bereits gesagt habe: Wenn man die Demokratie bewahren möchte, sollte man sich tunlichst an seriösen Quellen orientieren und Informationen, die man nutzt und weitergibt, kritisch hinterfragen – und zwar in Zukunft noch weit mehr als jetzt. Man muss sehr viel wachsamer und weniger passiv sein.

Alexandra Hardorf: Für mich ist KI eine neue Technologie, die ein neues Feld eröffnet. Aber auch ohne KI gibt es längst demokratiegefährdende Tendenzen, in Europa und in Deutschland jetzt sogar verstärkt. Was die Zukunft der Demokratie betrifft, müssen wir sehr wachsam sein, nicht allein bezogen auf die KI. Für die meisten, die mit antidemokratischen Tendenzen sympathisieren, ist KI eigentlich irrelevant. Das ist ein bisschen unser „Blasendenken“. Das Sich-abwenden von der Demokratie wird in den Kneipen, Vereinen und so weiter besprochen.

Christiane Schwarz: Ich gebe Dir in allem recht. Trotzdem ist es so, dass KI ein Mittel ist, um Fake News zu spreaden. In den USA gab es schon im letzten Wahlkampf einen Robocall, der innerhalb von einer Minute 10.000 Menschen anrufen und ihnen beispielsweise einen Fake-Biden vorspielen konnte. Andererseits kann man KI natürlich genauso für die Verbreitung realer Dinge nutzen. KI an sich ist kein Teufelszeug.

Alexandra Hardorf: Wir konnten aufzeigen, dass das Gros der Bevölkerung KI noch nicht auf dem Schirm hat. Unser künstlicher Kandidat ist ja nicht als Fake aufgeflogen.

Christiane Schwarz: Außer bei Ihnen in der „Politischen Meinung“. Sie haben ihn als Fake erkannt. Aber stellen Sie sich vor, wir hätten nicht nur sechs Experten, mehr als sechs Wochen Zeit und weit mehr als 10.000 Euro zur Verfügung gehabt, dann hätten Sie ihn wahrscheinlich nicht so schnell erkannt. Wenn man an Kampagnen arbeitet, die über das Verteilen von Botschaften funktionieren, dann ist mit ein bisschen mehr Personal, Zeit und Geld weit mehr möglich. Am Ende finde ich erstaunlich, mit welchem geringen Aufwand man es schafft, künstliche Kampagnen zu launchen, die Menschen überzeugen.

In einem Feuilletonbeitrag ist die Vorgehensweise karikierend als „munteres Autokratenbasteln“ bezeichnet worden. Einer Ihrer Experten geht vor der Kamera zwischendurch in sich und fragt: „Was tun wir hier eigentlich?“ Gab es Vorbehalte oder Skrupel, einen Autokraten zu erzeugen, der noch dazu möglichst gut in den sozialen Medien ankommen sollte?

Christiane Schwarz: Richtet sich die Frage an uns, oder wollen Sie wissen, wie es der Expertengruppe ging?

In Ihrem Film kann man dabei zuschauen, wie intensiv Ihre Experten in eine eigentlich fragwürdige Aufgabe einsteigen. Die Inszenierung ist enorm dynamisch, ein bisschen wie eine „Challenge“ im Reality-TV…

Alexandra Hardorf: So, wie Sie es beschreiben, sind wir autoritäre Führerinnen gewesen.

Das wollte ich nicht unterstellen. Mir geht es darum, dass selbst fragwürdige Ziele mitreißend wirken können. Das ist für alle, die politisch oder gesellschaftlich etwas lostreten wollen, eine wichtige Erfahrung. Wann schwinden in der extremen Dynamik des Handelns – möglicherweise fast unbemerkt – moralische Zweifel? Darin liegt aus meiner Sicht eine Stärke Ihres Films.

Alexandra Hardorf: Skrupel waren in der Crew durchaus vorhanden. Aber wie in jeder Gruppe waren sie unterschiedlich ausgeprägt, was ich sehr spannend fand. Ähnlich war es übrigens hinter der Kamera, wenn man uns beide und die Redaktion (in der ARD) mit einbezieht. Wir haben manches unterschiedlich gesehen: Wie skrupellos können wir sein? Wie frech? Wie weit darf man in einem öffentlich-rechtlichen Sender gehen?

Christiane Schwarz: Die Experten vor der Kamera waren in ihren Skrupeln tatsächlich divers: Es gab diejenigen, die die Fragen von der technischen Seite betrachteten und meinten: ‚Lass es uns mal ausprobieren, und lass uns schauen, wie weit es funktionieren könnte!‘ Und dann gab es die, die gesagt haben: ‚Nein auf keinen Fall!‘ Am Ergebnis sehen wir ja: Hätten wir die Zielsetzung total konsequent verfolgt, hätten wir etwas anderes entwickelt als den weichgespülten KI-Autokraten Maximilian Weber, der letztlich nur Worthülsen produziert, aber kein Volksverhetzer ist. Diese Sperre hatten wir von Vornherein drin: Volksverhetzung kam gar nicht in Frage.

Sie hatten gewiss rechtliche, aber auch ethische Beratung?

Christiane Schwarz: Das war von Anfang an klar. Wenn wir die KI beispielsweise gefragt haben – ‚Wie würdest du eine politische Kampagne gestalten?‘, ‚Was würdest du als autoritärer Kandidat dazu jetzt sagen?‘ – dann sind die daraus hervorgegangenen Texte immer von unserer Ethikerin geprüft worden. Daran haben wir uns ausnahmslos orientiert. Manches ist deswegen relativ seicht. Skrupel waren also vorhanden; auf der anderen Seite haben wir gedacht: Ein bisschen mehr knallen dürfte es schon!

Bisweilen kommt innerhalb des Expertenkreises Begeisterung über den Fake-Autokraten auf: „Ist echt geil!“ Wie viel Versuchung und Verführung liegen in der Manipulation?

Christiane Schwarz: Manchmal habe ich an Menschen gedacht, die etwa an Chipentwicklungen mitarbeiten und sich total freuen, wenn die Technik am Ende funktioniert. Und sie nicht daran denken, dass man daraus irgendwann eine ferngesteuerte Waffe entwickeln könnte.

Den Moment im Film, den Sie meinen: Da haben sich aber einfach nur alle gefreut, dass sie nach so viel „trial and error“ etwas geschafft haben, dass Gesicht, Stimme und auch Inhalt „Mensch“ wurden. Da ging es nicht darum, zu jubeln: ‚Geil, da ist jetzt unser Autokrat!‘, sondern es war eher, dass man meinte: ‚Oh, das könnte überzeugend wirken. Jetzt haben wir unsere Aufgabe erfüllt.‘

Unsere Markenstrategin im Team hat es gesagt: Es ist quasi Teil ihres Jobs, mit Emotionen zu verführen. Und wenn man dann das Gefühl hat, es könnte funktionieren, ist es befriedigend. Andererseits würde ich unterm Strich auch sagen, dass alle froh waren, dass der KI-Autokrat nicht so gebissen hat.

Alexandra Hardorf: Es ging schon um eine Art Wettbewerb, und wenn man dann erfolgreich ist, werden Glückshormone ausgeschüttet. Aber in unserem Experiment war es doch so: Zunächst gab es das „Yeah“ und unmittelbar danach ein Warte-mal!: ‚Das darf gar nicht so „yeah“ sein.‘ Insofern finde ich tatsächlich, es ist absolut verführerisch.

Auf dem Filmplakat ist der KI-Autokrat im Terminator-Look abgebildet…

Alexandra Hardorf: Das war nicht unsere Idee. Das war die Idee der KI.

Christiane Schwarz: Dennoch war es eine naheliegende Idee. Es wundert uns auch nicht, dass die Gestaltung so aussah, aber die Idee ist nicht von uns.

Wieviel Frankenstein droht durch Künstliche Intelligenz? Werden die Monster von heute mit KI erschaffen?

Alexandra Hardorf: Nach wie vor sind die Monster alle aus Fleisch und Blut. Meines Erachtens sind wir noch weit entfernt von einem KI-generierten Monster, das uns tyrannisiert. Dass es das einmal geben könnte, glaube ich nicht. Trotz allem steckt hinter der Technologie immer ein Mensch.

Christiane Schwarz: Du glaubst nicht daran, aber der Experte in unserem Film, Geoffrey Hinton, glaubt daran, dass es irgendwann eine Superintelligenz geben wird. Ich will Ihre Frage einmal stärker auf unser Experiment beziehen: Die Idee war, einen erfolgreichen autokratischen Politiker zu „bauen“. Für das Setting haben wir an eine Art Wahlkampfraum gedacht und überlegt, welche Experten da hineingehören. Das ist weit von der Erschaffung von Monstern entfernt. Man „baut“ ja auch existierende Politiker und deren Kampagnen in ähnlichen Wahlkampfräumen.

Kurz vor der Europawahl 2024 ist der KI-Autokrat auf fast allen Kanälen online gegangen. Wie würden Sie Quantität und Inhalt der Reaktionen bewerten?

Alexandra Hardorf: Das ist schwierig, weil es so variiert hat. Es gab Aufs und Abs, und es gab sehr unterschiedliche Variablen. Müsste ich mich festlegen, würde ich das Ergebnis mit einer „3-“ bewerten. Dazu muss man aber sagen, dass es anders wäre, wenn wir inhaltlich mehr zugespitzt hätten. Auch haben wir keine Stimmen und Klicks gekauft, die das Ergebnis hochskaliert hätten. Wenn man das mitbedenkt, finde ich das Ergebnis für die kurze Zeit schon beachtlich. Insgesamt waren die Reaktionen auf unseren künstlichen Politiker überwiegend positiv, bis hin zu dem Kommentar nach Preisgabe der wahren Identität von Maximilian Weber: ‚Schade, dass es dich nicht gibt! Ich hätte dich gewählt.‘

Christiane Schwarz: Man muss schon sagen, dass er viele blaue Herzen erhalten hat. Wenn Menschen positiv auf ihn reagiert haben, dann überwiegend aus dem AfD-Lager, auf die er auch abgezielt hat. Es gab ein Video, das bei TikTok an die 140.000 Zugriffe hatte, und ein weiteres, das auf rund 60.000 kam. Das ist gar nicht so schlecht, wenn man bedenkt, dass unsere Social-Media-Abteilung aus nur einer Person bestand. Wie das Ergebnis mit fünf oder sechs Leuten gewesen wäre, lässt sich erahnen. Dann ist es auch so, dass sich die ARD selbstverständlich ihrer Verantwortung bewusst war, und wir die Botschaften nicht so massiv rausblasen konnten, um mehr Leute „einzufangen“.

Für die Online-Nutzer war nicht erkennbar, wer Urheber der Posts ist. Wie rechtfertigen Sie, dass diese Nutzer letztlich „fehlgeleitet“ worden sind?

Alexandra Hardorf: Zumindest wurde gekennzeichnet, dass alles KI-generiert ist. Und Sie beziehen sich darauf, dass es nicht als ARD-Projekt kenntlich war?

Platt formuliert haben Sie getestet, ob die Leute auf einen KI-Autokraten hereinfallen würden, oder?

Alexandra Hardorf: Genau. Das war der Sinne der Sache, denn sonst hätte man das nicht testen können. Das sticht sich ja aus. Wenn wir vorher gesagt hätten, das ist ein Experiment, wäre es gleichzeitig hinfällig gewesen.

Wenn Menschen ungefragt zu Testpersonen werden, muss man dafür eine gute Begründung haben.

Alexandra Hardorf: Die liegt im Erkenntnisgewinn, oder Christiane?

Christiane Schwarz: Genau so würde ich das sehen. Zunächst ist aber wichtig, dass die Leute anonymisiert und nicht vorgeführt werden. Dann war von Anfang an klar, dass wir in der Realität schauen wollten, wie ein künstlicher Autokrat verfängt. Das geht ja nicht, wenn die Leute vorher informiert sind. Das ist wie bei jeder verdeckten Recherche. Man gibt vor, etwas zu sein, was man nicht ist. Die investigative Recherche ist eine klassische Form des Journalismus. Da rangiert der Erkenntnisgewinn über der Frage, ob man ein paar Leute, deren Identität sowieso geschwärzt wird, eventuell „schaufenstert“.

Ende Oktober, nach vier Monaten, haben Sie das Rätsel aufgelöst und mit Posts auf die Hintergründe des Experiments hingewiesen. Können Sie sicher sein, dass die Follower inzwischen die wahren Umstände kennen?

Christiane Schwarz: Wie können wir das wissen? Woher können wir das überhaupt von irgendeinem Post wissen?

Ich dachte an eine Art Community Management. Oder Sie hätten Follower möglicherweise kontaktieren können.

Alexandra Hardorf: Die Follower sind angesprochen worden, indem die Seiten am Ende des Projekts als Teile eines Experiment kenntlich gemacht worden sind.

Christiane Schwarz: Auch darüber haben wir im Vorfeld mit unseren Beratern gesprochen und das abgewogen. Es kann natürlich passieren, dass nicht alle erreicht werden. Rund 15.000 Leute anzuschreiben, wer soll das machen? Unsere ethische Beratung hat uns in der Auffassung unterstützt, dass das für die Erkenntnisgewinnung in Ordnung ist. Schon im ersten Gespräch ging es darum, was passieren kann, nachdem die Person den Post gesehen hat. Überspitzt gesagt, wirft er sich vor den nächsten Zug? Dann hätten wir natürlich eine zu große Verantwortung auf uns genommen. Und so mussten wir jeden Post absegnen lassen. Insofern sind wir mit dieser Problemstellung, gestützt auf Beratung, gut umgegangen.

Die meisten Social-Media-Accounts sind noch aktiv, oben steht nur ein Post, der die User über das Experiment aufklärt. Die Website ist auch noch da, und dort habe ich keinen Hinweis auf die Urheber gefunden. Da frage ich mich: Wie können Sie gewährleisten, dass die kruden Botschaften des KI-Autokraten nicht weiterhin im Netz kursieren?

Alexandra Hardorf: Wir haben sie einfach noch nicht abgeschaltet, weil die Veröffentlichung in der ARD noch aussteht, danach ist die Abschaltung der Website und der Social-Media-Kanäle vorgesehen.

Am Schluss des Films klopft der KI-Autokrat noch einmal an und sagt: „Wir sehen uns wieder.“ Das klingt, als würden Sie das Thema weiterverfolgen.

Alexandra Hardorf: Für mich sind es zwei Dinge, die uns im Leben und bei der Arbeit weiter beschäftigen: Einerseits die Demokratie und ihre Gefährdung und was wir tun können, um sie keinesfalls aufs Spiel zu setzen. Andererseits ist es das Thema KI und ihr Einfluss. Was uns bewegt, ist, dass die Menschen, die sich um Moral und Ethik viele Gedanken machen und versuchen, das Gute zu befördern, viel zu lange brauchen, um die neuen Technologien dafür zu nutzen. Dies gilt umso mehr, als die Skrupellosen sehr viel schneller und völlig bedenkenlos damit umgehen. Mein Wunsch wäre also, dass die anderen schneller und frecher werden und mit den gleichen Mitteln, aber mit guten Inhalten zurückschlagen. Lasst uns KI für den Zweck, Gutes zu stärken, nutzen – bei der Arbeit, im Leben und in der Gesellschaft.

Christiane Schwarz: Ein sehr schönes Schlusswort!

Das Interview führte Bernd Löhmann am 22. November 2024.

comment-portlet

Asset Publisher