Soryn, stock.adobe.com
- Noch mehr als Fake News können manipulierte Videos, sogenannte Deep Fakes, gefährliche Auswirkungen auf Gesellschaft und Demokratie haben.
- Die Produktion von Deep Fakes gelingt mit Methoden der Künstlichen Intelligenz, sogenannten Neuronalen Netzwerken mit Deep Learning.
- Eine Gegenstrategie kann das Dokumentieren von Quellen und Verbreitungswegen von Videos sein. Insbesondere „digitale Wasserzeichen“ oder auch die Blockchain-Technologie können dabei eine Rolle spielen.
- Es gibt Handlungsbedarf in juristischer Hinsicht. Bislang gibt es in Deutschland keine ausreichenden Gesetze zum Umgang mit Deep Fakes. Es gibt sinnvolle Anwendungen der Technik, die für Deep Fakes genutzt werden, in Kunst, Wissenschaft und Bildung. Diese sollten nicht verboten sein.
- Den klassischen Medien kommt beim Thema Deep Fake eine besondere Rolle und Verantwortung zu, was zu ihrer Stärkung beitragen könnte.
Topics
About this series
The series informs in a concentrated form about important positions of the Konrad-Adenauer-Stiftung on current topics. The individual issues present key findings and recommendations, offer brief analyses, explain the Foundation's further plans and name KAS contact persons.
Order details
Editor
Konrad-Adenauer-Stiftung e.V.
Why an independent Digital Ministry is indispensable and how it could be structured
The Value of Global Health
Catch me if you can #CyberEdition: How to keep up with non-state hackers acting as digital proxies
Mexico: Turbulent start to a landmark year
International talent for the German middle class