Jesus von Nazareth blinzelt mit den Augen zu, George Washington neigt fragend den Kopf, Napoleon und Mozart lächeln verschmitzt – Portraitfotos längst verstorbener Persönlichkeiten bewegen ihren Kopf täuschend echt. Solche realistisch wirkenden Medieninhalte, welche durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind bezeichnet man als Deepfake. Obwohl Medienmanipulation kein neues Phänomen darstellt, nutzen Deepfakes Methoden des maschinellen Lernens, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen. Das längst verstorbene Prominente wieder zum Leben erweckt werden mag eine Spielerei sein, diese Personen stehen uns nicht nah. Aber was, wenn plötzlich der eigene Großvater einen mit fragenden Augen anblickt, die verstorbene Lebenspartner einem zuzwinkert oder gar das verunglückte Kind aus dem Jenseits lächelt? „Animieren Sie die Geschichte Ihrer Familienfotos mit erstaunlicher Technologie. Erleben Sie Ihre Familiengeschichte wie nie zuvor“, wirbt der Service Deep Nostalgia im Internet, über welchen bereits über 75 Millionen Animationen erstellt wurden.
Zweifelhaften Ruhm und große Bekanntheit erlangte die Deepfake-Technologie bereits 2017. Ein anonymer Reddit-Nutzer stellte unter dem Pseudonym „Deepfakes“ mehrere Pornovideos ins Internet. So waren die Wonder-Woman-Darstellerin Gal Gadot beim Sex mit ihrem Stiefbruder und andere Schauspielerinnen wie Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson zu sehen. Diese Szenen waren nicht echt, sondern unter Verwendung künstlicher Intelligenz erstellt worden und rasch entlarvt. Als Trainingsdaten für sein Neuronales Netz hatte der Reddit-Nutzer Szenen aus Sexfilmen und Spielfilmen mit der Schauspielerin verwendet. Nach einem Bericht im Dezember 2017 im Magazin Vice wurde das Thema von weiteren Medien aufgenommen. In den folgenden Wochen überarbeiteten und verbesserten andere Reddit-Nutzer der Entwickler-Community das Vorgehen des Erstentwicklers, womit es zunehmend schwieriger wurde, gefälschte von echten Inhalten zu unterscheiden. Auf dem dazu auf Reddit gegründeten Subreddit „Deepfakes“ wurden bis zu dessen Sperrung am 7. Februar 2018 von mehr als 50.000 Nutzern Deepfake-Videos ausgetauscht. 2019 schließlich wurde das Programm DeepNude veröffentlicht, welches neuronale Netzwerke benutzt, damit Kleider von Bildern von Frauen entfernt werden können. [1]
Obwohl Deepfakes ein relativ neuartiges Phänomen sind, wurde dadurch bereits eine Debatte um ihre Nutzung und Gefahren für Politik, Wirtschaft und Gesellschaft entfacht. Auf Seiten der Politik sowie auf Seiten der Industrie gibt es Bestrebungen, die Identifizierung von Deepfakes zu erleichtern, ihre Nutzung einzuschränken und ihre unerlaubte Erstellung unter Strafe zu stellen.
Prof. Hao Li, Computerwissenschaftler an der University of California, und Experte für die Digitalisierung des menschlichen Körpers und insbesondere der Erfassung von Gesichtsleistungen betont, wie wichtig es ist, die Absicht hinter Deepfakes zu erkennen: „Zunächst einmal sind nicht alle Deepfakes schädlich. Nicht schädliche Inhalte dienen offensichtlich der Unterhaltung, der Komödie oder der Satire.“ Problematisch hingegen sei die Technologie bei der Verbreitung von Fake News vor allem auf Social-Media-Plattformen. „Das ist das Gleiche wie bei der Erfindung von Photoshop. Es wurde nie entwickelt, um die Öffentlichkeit zu täuschen. Es wurde für kreative Zwecke entwickelt. Und wenn man jetzt die Möglichkeit hat, Videos zu manipulieren, und zwar gezielt auf die Identität einer Person, dann ist es wichtig, ein Bewusstsein dafür zu schaffen, das wäre der erste Schritt. Der zweite Schritt wäre, dass wir in der Lage sein müssen, bestimmte Inhalte zu kennzeichnen. Die Kennzeichnung der Inhalte wäre etwas, an dem die Social-Media-Plattformen beteiligt sein müssten. Jetzt haben wir zwar alle Werkzeuge, die es uns erlauben, Bilder, Videos und Multimedia zu manipulieren, aber was können wir tun, um diese zu erkennen?“
Die Zeit drängt wie erste auf Deepfake beruhende Betrüge deutlich machen: 2019 wurde ein CEO eines Unternehmens aus dem Vereinigten Königreich durch einen Telefonanruf dazu gebracht, 220.000 Euro auf ein ungarisches Bankkonto zu überweisen, wobei die Täter durch ein Deepfake die Stimme eines Vorgesetzten des Opfers imitierten. Da das Verfälschen von Videos im Vergleich zu Bildern bisher relativ schwierig war, bauen viele Firmen zur Kundenverifikation auf eine Identifikation per Videos. Mittels Deepfakes konnten Hacker diese Verifikation bereits überlisten.
„Gegenwärtig ist die Verwendung von Deepfakes in einem kriminellen Kontext nach wie vor weit verbreitet, insbesondere bei nicht einvernehmlicher Pornografie. Bekannte Fälle von Deepfakes, die zum Zwecke der Beeinflussung politischer Prozesse hergestellt wurden, betrafen Videos mit relativ leicht erkennbaren Manipulationen. Dennoch verursachte selbst dieses minderwertige Material politische Turbulenzen. Sollte diese Technik im Rahmen einer von böswilligen staatlichen Akteur/-innen gesteuerten, organisierten und zielgerichteten Kampagne zur Desinformation massenhaft eingesetzt werden, könnten die zersetzenden Auswirkungen einer solchen Kampagne erheblich sein. […]
Folglich müssen wir dringend eine strategische Diskussion beginnen, die auf die Entwicklung eines wirksamen Abwehransatzes gegen diese aufkommende Bedrohung abzielt. Derzeit ist Deutschland von dieser Technik nicht so stark betroffen wie andere Länder. Das deutet darauf hin, dass sich Deutschland bei der Bewältigung dieser neuen Herausforderung in einem frühen Stadium befindet und noch genügend Zeit bleibt, wirksame Antworten zu entwickeln. Es ist unwahrscheinlich, dass einzelne isolierte Maßnahmen Wirkung zeigen. Die durch Deepfakes fortgeschrittene, intensivierte Einflussnahme auf politische Prozesse stellt eine komplexe Herausforderung dar, deren Bewältigung eines mehrgleisigen Ansatzes bedarf, der sich gegenseitig ergänzende juristische Bestimmungen, technische Lösungen und Maßnahmen zur Aufklärung der Öffentlichkeit kombiniert“, heißt es im Fazit der vom Counter Extremism Project und der Konrad Adenauer Stiftung herausgegebenen Studie „Deepfakes – Eine Bedrohung für Demokratie und Gesellschaft“. [2] Fasst könnte man meinen der tote Kanzler hebt mahnend die Hand.
[1] Seite „Deepfake“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. April 2021, 07:24 UTC. URL: https://de.wikipedia.org/w/index.php?title=Deepfake&oldid=210883219 (Abgerufen: 14. April 2021, 09:12 UTC)
[2] Prof. Dr. Hany Farid und Dr. Hans-Jakob Schindler: „Deepfakes – Eine Bedrohung für Demokratie und Gesellschaft“
CC BY-SA 4.0 DE
Sie dürfen:
- Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
- Bearbeiten — das Material remixen, verändern und darauf aufbauen und zwar für beliebige Zwecke, sogar kommerziell.
- Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
- Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
- Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
- Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.