2016 stellten der Filmemacher Oscar Sharp und der KI-Experte Ross Goodwin auf dem Filmfestival Sci-Fi-London ihren Kurzfilm Sunspring vor. Es war der erste Film, dessen Drehbuch vollständig von einer Künstlichen Intelligenz (KI) geschrieben worden war – trainiert mit Skripten bekannter Science-Fiction-Filme. Dies geht aus dem Vorspann des fast zehnminütigen Clips hervor, der die verwendeten Trainingsdaten und Prompts (sprachbasierte Eingabebefehle) auflistet, um die menschliche Steuerung der KI-Plot-Generierung transparent zu machen. Der Vorspann endet mit der Formulierung: „What follows is our attempt at making it.“ – Was folge, sei ihr Versuch, die KI-generierten Narrative filmisch umzusetzen. Dies trifft den Kern einer bis heute anhaltenden Diskussion: Ist KI lediglich ein neues Werkzeug des Menschen, oder stehen wir bereits selbst in ihrem Dienst? Erweitert die Technologie unsere kreativen Möglichkeiten, oder führt sie dazu, dass wir Kreativität letztendlich der „Hand“ generativer KI überlassen? Reagieren wir nur noch auf eine wie auch immer geartete neue Realität, oder gestalten wir sie aktiv mit?
Unsere kulturelle Landschaft ist längst von Künstlicher Intelligenz durchdrungen – sowohl infrastrukturell als auch inhaltlich. Plattformen wie TikTok, Instagram und YouTube nutzen KI, um Inhalte vorzuschlagen, die den Interessen der Nutzenden entsprechen. KI-Systeme überwachen als Content-Moderatoren unangemessene Inhalte und entfernen diese gegebenenfalls. Unternehmen analysieren mithilfe von KI-Anwendungen das Nutzungsverhalten ihrer User und schalten personalisierte Werbung oder setzen Chatbots für die Kundeninteraktion ein. Automatisierte Nachrichtensysteme wie der Quakebot der Los Angeles Times erstellen automatisch Berichte über Erdbeben und andere Ereignisse. Sämtliche textbasierte Inhalte können dank implementierter KI-Tools sofort übersetzt werden – bei Videos auch in Form von Untertiteln. Kaum ein Bild in den sozialen Medien ist nicht mit mindestens einem KI-Filter versehen, wenn nicht sogar vollständig von einer generativen KI wie Dall E oder Stable Diffusion erzeugt. Gleiches gilt für Musik und Film; von mit ChatGPT generierten Texten ganz zu schweigen.
Seit einigen Jahren kursiert daher nicht völlig unbegründet die Dead Internet Theory, ein Verschwörungsnarrativ, das besagt, dass Bots menschliche Aktivitäten im Internet verdrängt hätten und KI eingesetzt würde, um die Bevölkerung zu manipulieren. Das geht gewiss zu weit, aber laut einer Studie des Cybersicherheitsunternehmens Imperva machen Bots etwa die Hälfte des gesamten Internetverkehrs aus. Es ist daher nicht viel Phantasie notwendig, um sich plausible Dead Internet-Szenarien vorzustellen: Mich würde nicht sonderlich überraschen, wenn sich unter dem Posting einer KI-Influencerin ausschließlich Kommentare von Bots befänden – und wir Plattform-User nur noch zuschauten.
Vom Autor zum Kollaborateur?
Innerhalb weniger Jahre ist ein Alltag ohne KI unvorstellbar geworden – und das in einer Geschwindigkeit, bei der manche nicht mehr hinterherkommen. Kein Wunder also, dass diese Entwicklung zu grundlegenden Debatten darüber geführt hat, wie sich die Produktion, Konstitution und Rezeption von Kunst und Kultur durch KI bereits verändert hat und noch verändern wird – und welche gesellschaftlichen und politischen Folgen das mit sich bringt.
Ende 2023 wurde ein Videoessay über die Vergangenheit, Gegenwart und Zukunft von generativer KI mit dem Titel The Wizard of AI auf Vimeo veröffentlicht, der in diesem Fall nicht auf textlicher, sondern auf visueller Ebene durch die Unterstützung generativer KI entstand. Über neunzig Prozent der Bilder wurden mithilfe von Programmen wie Dall E, Stable Diffusion oder Midjourney erstellt. Der Titel spielt darauf an, dass uns generative KI in eine andere, surreale Welt versetzt hat, ähnlich wie Dorothy in dem Film The Wizard of Oz vom Sturm überrascht und in eine parallele Existenz gewirbelt wird. Diese neue Welt erinnert uns vage an vieles, das in unserem kulturellen Gedächtnis verankert ist, unterliegt jedoch völlig neuen Regeln und hat eine neue Ästhetik hervorgebracht. Es ist eine Welt, die fasziniert, allerdings in ihrer Unberechenbarkeit auch Angst macht.
Der Essay thematisiert sowohl die Verheißungen als auch die Gefahren generativer KI und die Kritik daran – von der Sorge, viele Kreative könnten ihre Jobs verlieren, über die Debatte, inwiefern Kunstschaffende von den Programmen beklaut und ausgebeutet werden, bis hin zur Problematik der Trainingsdaten, die oft voreingenommen sind und Vorurteile reproduzieren. Er zeigt die Entwicklungen generativer KI als das, was sie sind – ein zweischneidiges Schwert. Einerseits dient KI als Werkzeug der Verbesserung, Optimierung, Vereinfachung und Beschleunigung, als ein Instrument, das Zugang zu Informationen und Fähigkeiten ermöglicht und Nachhilfe in allen erdenklichen Bereichen geben kann – und weist insofern demokratisierendes Potenzial auf. Das Unternehmen Stability beschrieb bei der Einführung von Stable Diffusion die „Demokratisierung der Bilderzeugung“, die Milliarden von Menschen in die Lage versetzt, in Sekundenschnelle atemberaubende Kunst zu schaffen und „das Geschenk der Kreativität für alle“ zu bringen. Ist nun endlich, mit Joseph Beuys gesprochen, jeder Mensch ein Künstler geworden? Mitnichten. Denn andererseits lassen sich solche generativen KI-Tools auch als bequeme Möglichkeit wahrnehmen, endlos und passiv Informationen und kreative Outputs zu konsumieren, ohne selbst kreativ tätig zu werden. In dieser Lesart sind nicht wir Menschen die Schöpfer, sondern die KI, deren Werke wir lediglich als die eigenen ausgeben.
Kollektives „Imposter“-Syndrom?
Die herkömmlichen Konzepte von Autorschaft und Originalität werden durch Künstliche Intelligenz grundlegend herausgefordert und müssen hinterfragt werden, da auch das kulturelle Selbstverständnis daran gekoppelt ist. Um bei ChatGPT einen erfolgreichen Prompt zu verfassen, soll man der KI eine Rolle zuweisen. Denn es ist natürlich ein Unterschied, ob der Generator als Medientheoretikerin oder als Marketingexperte konsultiert wird. Doch in welche Rolle begeben sich die Nutzenden selbst beim Formulieren von „Befehlen“, wie Prompts oftmals ins Deutsche übersetzt werden? Einerseits bedürfen sie der Konsultation, andererseits halten sie die Zügel in der Hand. „Regisseur“ oder „Steuernder“ nennt mich ChatGPT, wenn ich ihn nach meiner Rolle in unserer Konversation frage. Fühlt man sich nicht auch irgendwie berechtigt, auf das kollektive Wissen in den Trainingsdaten zuzugreifen, das ja gewissermaßen unser Wissen ist? Sind wir nicht diejenigen, die gute oder schlechte, produktive oder sinnlose Fragen und Anweisungen geben? Daher liegt es nahe, dass Nutzende den von der KI generierten Bildern gegenüber einen gewissen Werkstolz empfinden. Zumindest kann man das den unzähligen geposteten KI-Bildern in den sozialen Medien entnehmen, deren Schöpfer oftmals ihre Prompts geheim halten – um nicht kopiert zu werden.
Zugleich bleiben jedoch auch Misstrauen und Befremden den zumindest nicht händisch erzeugten KI-Bildern und Texten gegenüber bestehen. Wenn diese gelungen sind: Ist das wirklich uns Nutzenden zuzuschreiben? Oder kann da nicht schnell das Gefühl aufkommen, fremde Lorbeeren erhalten zu haben? Vorstellbar, dass das zu einem kollektiven Imposter-Syndrom, zu Zweifeln an der eigenen Leistung, führen kann. Denn eine Erfahrung, die vor allem im Umgang mit Large Language Models (LLMs), mit großen Sprachmodellen, gemacht werden kann, ist, dass man Verantwortung an die Software abgibt. Man sichert eigene Gedanken lieber noch einmal ab: Habe ich den Satz wirklich richtig übersetzt? Ich überprüfe das lieber nochmals bei DeepL. Ist diese oder jene These wirklich vertretbar? Ich frage sicherheitshalber ChatGPT. Das führt zwangsläufig zu einer Verstärkung der Unsicherheit und im schlimmsten Fall zum Verlust des Vertrauens in die eigene Denkfähigkeit.
Von Wahrheit zu Wahrscheinlichkeit
Dieses Bedürfnis nach Absicherung passt in eine Zeit, in der viele das Gefühl haben, enorm viel falsch machen zu können. Vor zwanzig Jahren sprach man noch davon, dass es in der Kunst keine Tabus mehr gebe, die man brechen könne, dass mittlerweile alles erlaubt sei. Doch die sozialen Medien haben sich als Minenfeld gesellschaftlicher Sanktionen herausgestellt. Bei manchem mag da das Bedürfnis aufkommen, lieber eine durchschnittliche Aussage zu tätigen als eine originelle, die negativ auffällt. Lieber ein mean image als ein provokantes Bild. Die deutsche Filmemacherin und Autorin Hito Steyerl bezeichnet die von den Tools des maschinellen Lernens erzeugten Bilder als mean images. Da diese keine Bilder von tatsächlich existierenden Objekten, sondern statistische Renderings sind, verlagern sie den Schwerpunkt von fotografischer Indexikalität auf die stochastische Unterscheidung. Sie verweisen nicht mehr auf Faktizität, geschweige denn auf Wahrheit, sondern auf Wahrscheinlichkeit. KI-Bildern zu misstrauen, ist daher ganz selbstverständlich.
Die größte Gefahr, die von KI ausgeht, ist aber nicht, dass wir es zunehmend mit kulturellen Artefakten zu tun haben, die nicht von Menschen gemacht werden, oder dass wir versehentlich auf ein künstlich generiertes Bild reinfallen oder davon manipuliert werden. Die größte Gefahr sehe ich vielmehr darin, dass wir auch jenen Artefakten misstrauen, die Produkte menschlicher Aktivität sind.
Misstrauen als steter Begleiter
Tatsächlich kommt es häufiger vor, dass ich zum Beispiel einer handelsüblichen Digitalfotografie unterstelle, von einer KI generiert worden zu sein, als dass mich ein KI-Bild ernsthaft glauben lässt, eine Digitalfotografie zu sein. Misstrauen ist zum steten Begleiter der Bildbetrachtung geworden.
In vielen Fällen geht es überhaupt nicht um die Richtigkeit des Original-Contents, sondern er dient den Rezipierenden als Ausgangsmaterial für die Artikulation eigener Ansichten und Intentionen. Das bereitet einem – optimistisch formuliert – unvorsichtigen beziehungsweise – pessimistisch formuliert – rücksichtslosen und missbräuchlichen Umgang mit Falschinformationen fruchtbaren Boden. Die damit verbundene Missachtung oder sogar Leugnung einer Unterscheidbarkeit von echten und falschen Informationen hat eine Reihe von Effekten nach sich gezogen, die in den letzten Jahren viel Beachtung fanden: darunter florierende Verschwörungstheorien, der enorme Vertrauensverlust in mediale und politische Prozesse, die Beschreibung der Gegenwart als postfaktisches Zeitalter und so weiter.
Es gibt ein Wojak-Meme, das die heutige Rezeption von Bildern auf den Punkt bringt: Auf der linken Seite befinden sich zwei Bilder und auf der rechten Seite Wojaks Reaktionen darauf. Als Kommentar zu der Fotografie von Neil Armstrongs Mondlandung im Juli 1969 sieht man einen weinenden Wojak mit der Bildunterschrift „you can obviously see it[‘]s fake"; ein KI-generiertes Bild von einer Frau mit zwei Oberkörpern und entsprechend vier überdimensionierten Oberweiten wird hingegen mit einem begeisterten Wojak und dem Satz „wow! beautiful AMEN" kombiniert. Das bedeutet, dass viele nur das glauben, was sie glauben möchten – entweder weil sie sich wünschen, dass es Realität wäre, weil es ein bestimmtes Weltbild bestätigt oder sich besser darin einfügen lässt, oder weil es Informationen enthält, die sich instrumentalisieren lassen. Ob ein Bild oder eine Information glaubwürdig ist, hängt also längst nicht mehr mit bestimmten Eigenschaften des Bildes oder Textes zusammen, sondern zunehmend mit der Konstitution des Rezipienten.