Gemeinsam mit dem Leiter des Thüringer Kompetenzzentrum Wirtschaft 4.0, Dr. Mauricio Matthesius eröffnete die Landesbeauftragte der Konrad-Adenauer-Stiftung für Thüringen, Maja Eib den Vortragsabend und betonte dabei, das Fake-News und Deep Fake-Videos eine große Herausforderung für eine demokratische Kultur und freie Meinungsbildung bilden und keine Erweiterung der Vielfalt der Positionen ist. Im Gegenteil, sie konterkarieren damit die Idee einer offenen Informationsgesellschaft, so Eib. Sie ging dabei auf jüngste Untersuchungen ein, die aufzeigen, dass die zunehmende Verbreitung dieser Technik und Anwendung durch böswillige Akteure neue Möglichkeiten für schädliche Eingriffe in den politisch- gesellschaftlichen Diskurs haben und damit den gesellschaftlichen Zusammenhalt untergraben. Damit können, noch gravierender als Fake News, manipulierte Videos, sogenannte Deep Fakes, gefährliche Auswirkungen auf Gesellschaft und Demokratie haben.
Mit Blick auf dieses Gefahrenpotential gab die Veranstaltung einen Überblick über Methoden und Inhalte manipulierter Videos. Zugleich wurde dargestellt wie man über die Audio-Forensik versucht diese Fälschungen aufzuspüren.
Dr. Norbert Lossau gab in seinem Vortrag einen Überblick zu den Gefahren, Herausforderungen und Lösungswegen. Insbesondere ging er darauf ein, wie Deep Fakes u.a. mit Methoden der Künstlichen Intelligenz produziert werden und erläuterte, wie Neuronale Netzwerke mit Deep Learning die Basis dafür bilden. Deep Fakes sind gefälschte Videos, in denen Personen erfundene Aussagen in den Mund gelegt werden, oder in dem sie Handlungen begehen, die nie stattgefunden haben. Mit bloßem Auge ist nicht zu erkennen, dass es sich um Manipulationen handelt. Auch Audiofälschungen gehören dazu, die beliebige Texte mit der Stimme einer anderen Person verbinden.
Das Kunstwort Deep Fake wurde gebildet aus „Deep Learning“ und „Fake“ (Fälschung). Lossau betonte, dass es schon seit vielen Jahren vor allem auch in aufwendigen Filmproduktionen täuschend echte Animationen gibt. Diese durchaus sinnvolle Anwendung der Technik, die für Deep Fakes genutzt werden, in Kunst, Wissenschaft und Bildung stellen keine Gefahr dar und sollten nicht verboten werden, so Lossau. Davon zu unterscheiden sind Deep-Fake z.B. in Pornos, in denen Gesichter prominenter Schauspielerinnen nachträglich in Pornofilmen montiert werden. Auch nicht Prominente sind schon Opfer solcher Deep Fake-Produktionen geworden.
Zu dieser „professionellen Produktion“ kommt seit geraumer Zeit hinzu, dass jeder mit geringem Aufwand auf einem PC mit preiswerter oder gar kostenloser Software Deep-Fake Videos produzieren kann. Besonders gefährlich vor allem für Unternehmen, Staaten und internationale Beziehungen wird es dann, wenn denkbare Szenarien wie Staatsoberhäupter oder militärische Führer in Fake-Videos Dinge sagen oder tun, die zu politischen Verwerfungen führen können. Ebenso denkbar sind gezielte Börsenmanipulationen, Attacken gegen Unternehmen und Bedrohungen für die Demokratie „Infocalypse“. Bisher haben die Menschen dem bewegten Bild vertraut. Das Schlimmste wäre, so Lossau, wenn die Menschen das Interesse an der Wahrheit verlieren. Deshalb kommt den klassischen Medien beim Thema Deep Fake eine besondere Rolle und Verantwortung zu, was gleichfalls auch zu ihrer Stärkung beitragen könnte. Als Lösungswege bzw. Gegenstrategie sah Lossau das Dokumentieren von Quellen und Verbreitungswegen von Videos. Insbesondere „digitale Wasserzeichen“ oder auch die Blockchain-Technologie können dabei eine Rolle spielen. Sodann gäbe es dringenden Handlungsbedarf in juristischer Hinsicht. Bislang gibt es in Deutschland keine ausreichenden Gesetze zum Umgang mit Deep Fakes.
In dem sich anschließendem Vortrag von Patrick Aichroth, Gruppenleiter Mediendistribution & Sicherheit, Fraunhofer IDMT Ilmenau wurde deutlich, welcher Wettlauf zwischen Enttarnern und Fälschern gerade stattfindet. Aichroth legte dar, wie in seiner Abteilung des Fraunhofer-Instituts verräterische Spuren, die bei der Produktion entstehen, aufgedeckt werden können. Aus Sicht der Audio-Forensik benannte er folgende Treiber für „Shallow Fakes “: Manipulationen & Distribution: Einfach, schnell, günstig; immer mehr verfügbares Material und das geringe Risiko der Entdeckung und “Bestrafung”. Die Problemfälle würden stetig zunehmen: hier benannte er Beweismittel, Verkaufsgespräche, Aufnahmen von Politikern / aus Krisengebieten, etc. Er plädierte dafür, dass ein „Spoiler“ auch künftig und für DeepFake Detection wichtig sei. So konzentriere man sich aktuell primär in seinem Institut auf die Audio-Manipulationen (versus Bild/Video-Manipulationen). Er betonte, dass diese oft unterschätzt würden. Im Fortgang stellte er Verfahren wie die „Spurensuche“ mit Detektoren, ENF-Analyse, Inverse Decoder / Coding-Analyse und die Mikrofonanalyse vor. In einem Selbsttest konnten daraufhin die anwesenden Teilnehmer testen, welcher der vier eingespielten Sätze durch einen Menschen oder durch eine KI erstellt worden ist. Am Ende des Vortrags stellte Aichroth die Frage nach der Wahrheitssuche und der gemeinsamen Basis für Falsifizierung.
Einig waren sich beide Experten, dass man zwischen der Prüfung von Echtheit, die Richtigkeit unterscheiden müsse. In Berücksichtigung des Kontextes war es beiden Referenten wichtig zu betonen, dass „maschinelle“ Prüfwerkzeuge „menschliche“ Prüfung unterstützen, aber nicht ersetzen können.