Kennen Sie das „Foto“ von Papst Franziskus in einer auffälligen weißen Daunenjacke, mit Sonnenbrille und einer dicken Goldkette, wie man sie eher bei einem Rapper am Skilift in St. Moritz vermuten würde? Oder das Bild von Wladimir Putin, der auf Knien vor dem ukrainischen Präsidenten Selenskyj demütig um Vergebung bittet? Haben Sie schon einmal in den sozialen Netzwerken den Videoclip gesehen, in dem Olaf Scholz als muskulöser Zwei-Meter-Hüne seine massiven Oberarme anspannt und darüber sinniert, dass viele Fehler einen nur stärker machen würden?
Diese mehr oder weniger humorvollen Bild- und Videomanipulationen wirken auf den ersten Blick harmlos. Durch ihre Skurrilität und kleinen visuellen Fehler erkennt man spätestens beim zweiten Hinsehen, dass sie nicht echt sein können. Doch was passiert, wenn diese durch Künstliche Intelligenz (KI) generierten Bilder perfekt und die Motive subtiler werden? Sogenannte Deep Fakes fluten bereits heute das Internet, und ihre Zahl wird mit Sicherheit steigen. Mit KI-Software sind diese Manipulationen in kürzester Zeit erstellt – massenhaft, kostengünstig und ohne technische Vorkenntnisse, zumeist direkt auf dem Smartphone.
Was für die Erstellung von Bild, Video und Ton gilt, trifft erst recht auf die Produktion von Texten zu. Und das nicht nur für Klamauk: In vielen Redaktionen ist der Einsatz Künstlicher Intelligenz bereits weit verbreitet. Schnelle Recherchen, Zusammenfassungen langer Dokumente oder gar das Formulieren kurzer Artikel werden zunehmend diesem neuen, unkomplizierten Hochleistungskollegen namens KI überlassen. Ein bemerkenswertes Beispiel ist die internationale Nachrichtenagentur Associated Press, die generative KI verwendet, um Routineberichte wie Finanznachrichten und Sportergebnisse zu erstellen, während komplexere und investigative Recherchen den menschlichen Journalisten vorbehalten bleiben.1 Diese Zusammenarbeit von Menschen und IT-Algorithmus ermöglicht es Journalisten, sich auf kreative und tiefgründige Recherchen zu konzentrieren – so lautet jedenfalls das Argument der Agentur.
Das Informationsvolumen wird sowohl quantitativ als auch qualitativ anwachsen. Einerseits führt dies zu einer größeren Vielfalt an Nachrichten und Einordnungen. Andererseits wird die Intensität der Desinformation durch Fake News, vermeintliche „Beweise“ für Verschwörungsnarrative und andere Troll-Beiträge in den sozialen Netzwerken dramatisch zunehmen.2 Wenn Medienprodukte immer häufiger von KI erzeugt werden und die mediale Berichterstattung immer seltener von menschlichen Reportern stammt, wird diese Entwicklung die Medienwirklichkeit nachhaltig beeinflussen.
Die Medienwirklichkeit war ein zentrales Forschungsfeld von Niklas Luhmann, dem bedeutenden deutschen Soziologen und Gesellschaftstheoretiker. Er beschreibt die Medienwirklichkeit als Produkt des gesamten Mediensystems, das durch Selektion und Darstellung objektiver Wahrheiten eine eigenständige Realität schafft, die wiederum die Gesellschaft maßgeblich beeinflusst.3
Absolut objektiv?
Gemäß Niklas Luhmann wird die Medienwirklichkeit durch den Journalismus und die gesamte Kreativwirtschaft – von Film, Werbung bis Literatur – konstruiert. Dabei handelt es sich um eine Kaskade, die vereinfacht wie folgt erklärt werden kann: Die wahrgenommene Wirklichkeit der Medienschaffenden wird zur Medienwirklichkeit, diese wiederum zur Wirklichkeit der Gesellschaft und schließlich zur Wirklichkeit der einzelnen Person. Während die Wahrheit ein absolutes, objektives Konzept darstellt, ist die Wirklichkeit subjektiv und abhängig von der individuellen Wahrnehmung. Menschen sind in ihrer Wahrnehmung durch ihr soziales Umfeld, ihre Prägung, Weltanschauung, Lebensverhältnisse und Interessen beeinflusst. Wenn sie Wirklichkeit wiedergeben, ist dies zumindest unbewusst interpretativ und nie die eine, vollumfängliche Wahrheit. Daher kann auch die Medienwirklichkeit niemals „absolut objektiv“ sein.
Fehlende Objektivität in der Berichterstattung und Verzerrungen der Wirklichkeit sind ein grundlegendes Problem menschengemachter Medien. Die unvermeidbare Subjektivität führt dazu, dass die Berichterstattung immer eine konstruierte Wirklichkeit darstellt. Frei nach Luhmann liegt also das Ur-Problem in der Natur des wahrnehmenden und interpretierenden Menschen selbst, der „als Teil der Umwelt der Gesellschaft“ die Realität formt.4
Hier entfaltet sich nun das Potenzial der KI: Im Gegensatz zum Menschen kann sie nicht emotional betroffen sein, hat keine ideologischen Präferenzen und keine eigenen Interessen. Stattdessen ist sie eine kalte, dienende, uneigennützige Maschine mit einem neuronalen Netzwerk, das mit Daten gefüttert wird, immer mehr Muster erkennt und damit immer menschlicher anmutende Entscheidungen trifft beziehungsweise kreative Leistungen erbringt. Von menschlicher Kreativität kann jedoch keine Rede sein: Während Menschen intuitiv Probleme lösen und Inhalte quasi aus dem Nichts erzeugen können, fehlt der KI diese Fähigkeit gänzlich. Sie simuliert kreatives Denken. Ihre Lösungen basieren auf den Daten, die sie kennt, und den Mustern, die sie daraus erlernt hat. Ebenso verhält es sich mit der „Logik“ der KI: Sie greift nur auf Muster und statistische Wahrscheinlichkeiten zurück, nicht aber auf ein echtes menschliches Verständnis der Welt.5
Härter, erbarmungsloser, aber ehrlicher
Die Abwesenheit jener Determinanten menschlicher Wahrnehmung – also des identifizierten „Ur-Problems“ – macht die KI zu einem interessanten Werkzeug. Sie ist kein Teil der gesellschaftlichen Umwelt, wie es Luhmann in seiner Systemtheorie beschreibt. Sie hat damit das Potenzial, die objektive Wahrheit wahrzunehmen und darzustellen, ohne jegliche menschliche Voreingenommenheit. Durch das Sammeln von Unmengen an Informationen, Analysen, Vergleichen und wissenschaftlichen Studien ist die KI dazu imstande, durch komplexe Verknüpfungen faktische Zusammenhänge zu erkennen und damit eine wertfreie, abgewogene, vollständige und unverzerrte Darstellung von Wirklichkeit zu generieren. Eine neue Form der Objektivität wird damit geboren. Diese ist womöglich härter und erbarmungsloser, möglicherweise politisch inkorrekter, aber auch ehrlicher – so jedenfalls in der Theorie.
Praktisch kann man sich nie sicher sein, dass eine maschinell erzeugte Objektivität wirklich frei von menschlichen Vorurteilen und Verzerrungen ist. Letztlich wird die KI von Menschen programmiert. So wurden heute schon in alle etablierten KI-Systeme bestimmte ethische Normen von ihren Entwicklern einprogrammiert, um keine unwürdigen Ergebnisse zu produzieren, beispielsweise Nacktfotos von Personen, die niemals nackt in Erscheinung treten würden. Wo aber die Ethik endet und die Weltanschauung beginnt, ist natürlich eine andere große Frage. Klar ist aber: KI muss unter allen Umständen abhängig vom Menschen als leitender Kraft bleiben. Anderenfalls könnte sie zu unmenschlichen, ethiklosen Entscheidungen fähig sein. Daher empfiehlt es sich, der KI ausschließlich die Rolle eines Assistenten bei der Findung der objektiven Wirklichkeit zuzuweisen. Aber wie könnte das praktisch aussehen?
„Wahrheitssiegel“ der Europäischen Union
Ziel einer solchen KI-Assistenz wäre beispielsweise eine Echtzeitprüfung von Inhalten im Netz auf ihre Korrektheit, eine Einstufung des Beitrags auf einer Objektivitätsskala, gegebenenfalls eine Einordnung in den politischen Kontext (zum Beispiel in Form eines Koordinatensystems mit den Achsen politisch rechts bis links und liberal bis autoritär) sowie die Bereitstellung automatisierter Gegenargumente, passender Leseempfehlungen und des Ursprung des Inhalts. Ein solcher KI-Scanner könnte basierend auf einer Internetseite angeboten werden und als damit verbundenes Plug-in am Rand des Browsers erscheinen. Mit einem Klick würde die gerade geöffnete Nachricht eines etwaigen Medienanbieters kopiert werden und durch den Scanner laufen. Nach wenigen Sekunden erschiene ein Analysebericht mit einer rot leuchtenden Anzeige, die vor groben Ungenauigkeiten oder gar gezielter Desinformation warnt und die Fake News widerlegt. Im besten Falle leuchtet die Ampel grün. Korrekte Gegenargumente und weitere interessante Quellen für ein konsequent pluralistisches Informationserlebnis sollen dem User verdeutlichen, dass es sich um einen Qualitäts- und nicht um einen Gesinnungscheck handelt.
Selbstverständlich müsste sich ein solcher KI-Scanner durch absolute Neutralität in der Bewertung der Inhalte auszeichnen. Daher ist es unabdingbar, dass ein solches Angebot von einer politisch sowie wirtschaftlich unabhängigen Organisation konzipiert, programmiert und verwaltet würde. Wäre die Gründung einer solchen unabhängigen Organisation nicht etwas für die Europäische Union? Sie wäre dafür ein potenter und vertrauenswürdiger Auftraggeber. Alle Fraktionen des Europäischen Parlaments müssten dazu Beauftragte für ein Kontrollgremium bestimmen, um den pluralistischen Ansatz eines solchen Werkzeugs sicherzustellen.6 Das Ergebnis könnte ein Europäisches Digitales Qualitätssiegel auf jeder europäischen Internetseite sein, das als Button eingebunden werden kann und den Leser mit einem Klick zu dem KI-Scanner führt. Zugegebenermaßen müsste die technische Skalierbarkeit eines solchen Systems geprüft werden, denn ein derartiges Unterfangen würde sicherlich an die „Vermessung des Internet“ grenzen.
Auf alle Fälle würde ein solches Tool für mehr Souveränität im Umgang mit Medien sorgen, insbesondere durch Kompensation fehlender Medien- und Digitalkompetenz. Kurz: ein Werkzeug, das der Wahrheitsfindung dient und den Bürgern hilft, vollumfänglich informiert und kritisch denkend am demokratischen Prozess teilzunehmen.7
Gegen die Wucht der Desinformation
Ohne Frage: Die KI wird die Medien- und Kreativbranche und damit die Medienwirklichkeit revolutionieren, und das sowohl im positiven wie im negativen Sinne. Einerseits wird es immer mehr Informationsangebote und dadurch einen wachsenden Medienpluralismus geben, andererseits werden wir mit noch mehr Unsicherheit im Umgang mit Nachrichten und Informationen konfrontiert. Denken Sie an die humorvollen Beispiele am Anfang des Artikels: Fiktion wird ohne jeglichen Aufwand visualisiert; Nonsens wird datengetrieben verargumentiert. KI wird authentisch wirkende Informationsmuster generieren, die jedoch keiner Faktizität entsprechen – ein Eldorado für Verschwörungserzähler! Die Gesellschaft muss sich auf noch häufigere und überzeugendere Anschläge auf die Integrität der Informationslandschaft gefasst machen.
Dieser möglichen Wucht von KI-generierter Desinformation werden wir nur dann Herr, wenn wir die gleiche Technologie als Gegenmaßnahme verstehen. Politik, Medien und alle anderen Systeme unserer Gesellschaft werden KI als prüfendes, ordnendes und zusammenführendes Korrektiv nutzen müssen, um im Dickicht des (Des-)Informationsdschungels Klarheit und Wahrheit zu schaffen. Dafür muss das oberste Ziel der Politik sein, einen regulatorischen Rahmen für ein wahrheits- und ethikgetriebenes „Orakel“ zu schaffen, das künftig von jedem Bürger als substanziell anerkannt werden kann.
Die großen Chancen der KI liegen darin, Medienwirklichkeit objektiver zu machen, Fake News zu demaskieren und letztlich divergierende Realitäten auf die Wahrheit auszurichten und wieder zusammenzuführen. So kann die KI einen beträchtlichen Beitrag gegen die Spaltung der Gesellschaft und für eine wehrhafte freiheitliche Demokratie leisten. Diese Chancen müssen von Politik und Gesellschaft gleichermaßen „entfesselt“ werden – durch sensible Regulierung, mutige Innovation, verantwortungsvolle Anwendung und beharrlichen Anstand.
Mike Wyroslawski, geboren 1990 in Berlin, Kommunikationswissenschaftler, Leiter Digitale Kommunikation der CSU im Deutschen Bundestag.
1 Vgl. ARTIFICIAL INTELLIGENCE. Leveraging AI to advance the power of facts. The Associated Press, www.ap.org/solutions/artificial-intelligence/ [letzter Zugriff: 17.07.2024].
2 Vgl. Tate Ryan-Mosley: „How generative AI is boosting the spread of disinformation and propaganda“, in: MIT Technology Review, 04.10.2023, www.technologyreview.com/2023/10/04/1080801/generative-ai-boosting-disinformation-and-propaganda-freedom-house/ [letzter Zugriff: 17.07.2024].
3 Niklas Luhmann: Die Realität der Massenmedien, Opladen 1996.
4 Vgl. Niklas Luhmann: Soziale Systeme. Grundriss einer allgemeinen Theorie, Frankfurt am Main 1984, S. 228 f.
5 Vgl. Eunice Yiu / Eliza Kosoy / Alison Gopnik: „Transmission Versus Truth, Imitation Versus Innovation: What Children Can Do That Large Language and Language-and-Vision Models Cannot (Yet)“, in: Perspectives on Psychological Science, 23.10.2023, www.psychologicalscience.org/news/2023-december-ai-systems-imitation.html [letzter Zugriff: 17.07.2024].
6 Ein zentrales Element des im Mai 2024 verabschiedeten EU AI Acts ist die Gründung eines Europäischen KI-Büros innerhalb der Europäischen Kommission, das die Einhaltung der KI-Regulierung überwacht und die Entwicklung vertrauenswürdiger KI fördert.7 Weltweit wurden bereits viele Fakten-Tools entwickelt. Die US-Denkfabrik „Rand“ hat einige aufgelistet, vgl. www.rand.org/research/projects/truth-decay/fighting-disinformation/search.html [letzter Zugriff: 17.07.2024].