Ihr Dokumentarfilm „Der Autokraten-Code“ zeigt, wie eine Expertengruppe mittels Künstlicher Intelligenz einen virtuellen Autokraten generiert und vermarktet. Warum die Mühe? Reichen die analogen Autokraten dieser Welt nicht aus?
Alexandra Hardorf: Glücklicherweise haben wir in Deutschland keinen Autokraten, auch wenn es in manchen Parteien durchaus Tendenzen dahin gibt. Die provokante Frage, die wir uns gestellt haben, lautet: Ist es etwas, was Deutschland möchte, wenn es immer weiter in die Extreme driftet, weil die Gesellschaft keine Lust mehr auf „die da oben“ hat? Möchten wir in Deutschland eine neue Führung, eine Alleinregierung, ohne darüber nachdenken zu müssen, wer führt?
Aber warum haben Sie einen KI-Autokraten entwickelt?
Christiane Schwarz: Wir haben uns entschieden, unsere Grundidee mit KI zu kombinieren, weil KI keine Gefühle hat, weil sie ungefiltert die stärksten Argumente übernimmt und sich gnadenlos durchsetzt – was natürlich alles sehr autokratisch ist. KI nimmt keine Rücksicht auf Moral, solange sie nicht darauf programmiert ist. Noch werden KI-Anwendungen wenig reguliert, und wir müssen darüber nachdenken, wie moralisch eine Maschine denken und handeln sollte. Insofern passen KI und Autokratie aktuell gut zusammen.
Nachdem Sie den „Autokraten-Code“ geknackt haben: Ist das Autokratendasein leichter geworden?
Christiane Schwarz: Zunächst will ich widersprechen: Wir haben den Code nicht geknackt, sondern eher ein Fragezeichen dahinter gesetzt. Unsere Absicht war, so etwas wie eine Awareness-Kampagne für Deutschland zu produzieren: Hallo, Achtung, da draußen ist etwas unterwegs! Glaubt nicht alles, was ihr seht, hört und lest! Die Verbreitung kruder Meinungen und von Mitteilungen jenseits aller Fakten ist durch KI selbstverständlich viel leichter geworden.
Alexandra Hardorf: Dabei sind wir bei Weitem nicht so gerissen, böse und skrupellos vorgegangen, wie es möglicherweise diejenigen tun würden, die KI nutzen, um tatsächlich autokratische Gedanken zu verbreiten.
Worin liegt nach Beendigung Ihres Projekts der zentrale Erkenntnis- und Erfahrungsgewinn mit Blick auf die Zukunft der Demokratie?
Alexandra Hardorf: Die Frage lässt sich mit Blick auf die Zukunft der Demokratie nicht so leicht beantworten.
In der Ankündigung zur Sendung heißt es doch, es sei darum gegangen, ob Künstliche Intelligenz genutzt werden könne, um Demokratien zu schaden…
Christiane Schwarz: Wie ich bereits gesagt habe: Wenn man die Demokratie bewahren möchte, sollte man sich tunlichst an seriösen Quellen orientieren und Informationen, die man nutzt und weitergibt, kritisch hinterfragen – und zwar in Zukunft noch weit mehr als jetzt. Man muss sehr viel wachsamer und weniger passiv sein.
Alexandra Hardorf: Für mich ist KI eine neue Technologie, die ein neues Feld eröffnet. Aber auch ohne KI gibt es längst demokratiegefährdende Tendenzen, in Europa und in Deutschland jetzt sogar verstärkt. Was die Zukunft der Demokratie betrifft, müssen wir sehr wachsam sein, nicht allein bezogen auf die KI. Für die meisten, die mit antidemokratischen Tendenzen sympathisieren, ist KI eigentlich irrelevant. Das ist ein bisschen unser „Blasendenken“. Das Sich-abwenden von der Demokratie wird in den Kneipen, Vereinen und so weiter besprochen.
Christiane Schwarz: Ich gebe Dir in allem recht. Trotzdem ist es so, dass KI ein Mittel ist, um Fake News zu spreaden. In den USA gab es schon im letzten Wahlkampf einen Robocall, der innerhalb von einer Minute 10.000 Menschen anrufen und ihnen beispielsweise einen Fake-Biden vorspielen konnte. Andererseits kann man KI natürlich genauso für die Verbreitung realer Dinge nutzen. KI an sich ist kein Teufelszeug.
Alexandra Hardorf: Wir konnten aufzeigen, dass das Gros der Bevölkerung KI noch nicht auf dem Schirm hat. Unser künstlicher Kandidat ist ja nicht als Fake aufgeflogen.
Christiane Schwarz: Außer bei Ihnen in der „Politischen Meinung“. Sie haben ihn als Fake erkannt. Aber stellen Sie sich vor, wir hätten nicht nur sechs Experten, mehr als sechs Wochen Zeit und weit mehr als 10.000 Euro zur Verfügung gehabt, dann hätten Sie ihn wahrscheinlich nicht so schnell erkannt. Wenn man an Kampagnen arbeitet, die über das Verteilen von Botschaften funktionieren, dann ist mit ein bisschen mehr Personal, Zeit und Geld weit mehr möglich. Am Ende finde ich erstaunlich, mit welchem geringen Aufwand man es schafft, künstliche Kampagnen zu launchen, die Menschen überzeugen.
In einem Feuilletonbeitrag ist die Vorgehensweise karikierend als „munteres Autokratenbasteln“ bezeichnet worden. Einer Ihrer Experten geht vor der Kamera zwischendurch in sich und fragt: „Was tun wir hier eigentlich?“ Gab es Vorbehalte oder Skrupel, einen Autokraten zu erzeugen, der noch dazu möglichst gut in den sozialen Medien ankommen sollte?
Christiane Schwarz: Richtet sich die Frage an uns, oder wollen Sie wissen, wie es der Expertengruppe ging?
In Ihrem Film kann man dabei zuschauen, wie intensiv Ihre Experten in eine eigentlich fragwürdige Aufgabe einsteigen. Die Inszenierung ist enorm dynamisch, ein bisschen wie eine „Challenge“ im Reality-TV…
Alexandra Hardorf: So, wie Sie es beschreiben, sind wir autoritäre Führerinnen gewesen.
Das wollte ich nicht unterstellen. Mir geht es darum, dass selbst fragwürdige Ziele mitreißend wirken können. Das ist für alle, die politisch oder gesellschaftlich etwas lostreten wollen, eine wichtige Erfahrung. Wann schwinden in der extremen Dynamik des Handelns – möglicherweise fast unbemerkt – moralische Zweifel? Darin liegt aus meiner Sicht eine Stärke Ihres Films.
Alexandra Hardorf: Skrupel waren in der Crew durchaus vorhanden. Aber wie in jeder Gruppe waren sie unterschiedlich ausgeprägt, was ich sehr spannend fand. Ähnlich war es übrigens hinter der Kamera, wenn man uns beide und die Redaktion (in der ARD) mit einbezieht. Wir haben manches unterschiedlich gesehen: Wie skrupellos können wir sein? Wie frech? Wie weit darf man in einem öffentlich-rechtlichen Sender gehen?
Christiane Schwarz: Die Experten vor der Kamera waren in ihren Skrupeln tatsächlich divers: Es gab diejenigen, die die Fragen von der technischen Seite betrachteten und meinten: ‚Lass es uns mal ausprobieren, und lass uns schauen, wie weit es funktionieren könnte!‘ Und dann gab es die, die gesagt haben: ‚Nein auf keinen Fall!‘ Am Ergebnis sehen wir ja: Hätten wir die Zielsetzung total konsequent verfolgt, hätten wir etwas anderes entwickelt als den weichgespülten KI-Autokraten Maximilian Weber, der letztlich nur Worthülsen produziert, aber kein Volksverhetzer ist. Diese Sperre hatten wir von Vornherein drin: Volksverhetzung kam gar nicht in Frage.
Sie hatten gewiss rechtliche, aber auch ethische Beratung?
Christiane Schwarz: Das war von Anfang an klar. Wenn wir die KI beispielsweise gefragt haben – ‚Wie würdest du eine politische Kampagne gestalten?‘, ‚Was würdest du als autoritärer Kandidat dazu jetzt sagen?‘ – dann sind die daraus hervorgegangenen Texte immer von unserer Ethikerin geprüft worden. Daran haben wir uns ausnahmslos orientiert. Manches ist deswegen relativ seicht. Skrupel waren also vorhanden; auf der anderen Seite haben wir gedacht: Ein bisschen mehr knallen dürfte es schon!
Bisweilen kommt innerhalb des Expertenkreises Begeisterung über den Fake-Autokraten auf: „Ist echt geil!“ Wie viel Versuchung und Verführung liegen in der Manipulation?
Christiane Schwarz: Manchmal habe ich an Menschen gedacht, die etwa an Chipentwicklungen mitarbeiten und sich total freuen, wenn die Technik am Ende funktioniert. Und sie nicht daran denken, dass man daraus irgendwann eine ferngesteuerte Waffe entwickeln könnte.
Den Moment im Film, den Sie meinen: Da haben sich aber einfach nur alle gefreut, dass sie nach so viel „trial and error“ etwas geschafft haben, dass Gesicht, Stimme und auch Inhalt „Mensch“ wurden. Da ging es nicht darum, zu jubeln: ‚Geil, da ist jetzt unser Autokrat!‘, sondern es war eher, dass man meinte: ‚Oh, das könnte überzeugend wirken. Jetzt haben wir unsere Aufgabe erfüllt.‘
Unsere Markenstrategin im Team hat es gesagt: Es ist quasi Teil ihres Jobs, mit Emotionen zu verführen. Und wenn man dann das Gefühl hat, es könnte funktionieren, ist es befriedigend. Andererseits würde ich unterm Strich auch sagen, dass alle froh waren, dass der KI-Autokrat nicht so gebissen hat.
Alexandra Hardorf: Es ging schon um eine Art Wettbewerb, und wenn man dann erfolgreich ist, werden Glückshormone ausgeschüttet. Aber in unserem Experiment war es doch so: Zunächst gab es das „Yeah“ und unmittelbar danach ein Warte-mal!: ‚Das darf gar nicht so „yeah“ sein.‘ Insofern finde ich tatsächlich, es ist absolut verführerisch.