Deep Fakes – Gefahr in Verzug

Deep Fakes sind kein Kavaliersdelikt!    

Ein handelsüblicher Rechner und frei verfügbare Software reichen heute aus, um ein Deep-Fake-Video herzustellen. Die Ergebnisse lassen sich im Netz bestaunen: Da zeigt sich Nancy Pelosi, Sprecherin des US-Repräsentantenhauses, betrunken. Der Facebook-Chef Mark Zuckerberg erklärt, dass sein Unternehmen über gestohlene Nutzerdaten die Zukunft kontrollieren will. Und Reality-TV-Star Kim Kardashian bedankt sich dafür, reich durch die Manipulation ihrer Follower geworden zu sein. Natürlich hat niemand das so gesagt, vielmehr wurden diese Deep Fakes von Künstlern kreiert, um auf die potenziellen Gefahren der Technik hinzuweisen. Fakt ist, mit genügend Audio- und Videomaterial einer Person lässt sich die Künstliche Intelligenz dahinter so lange trainieren, bis überzeugende Fälschungen entstehen.

Ist ein Deep Fake dann nicht mehr – wie in den oben genannten Beispielen – als Scherz oder Parodie erkennbar, wird es gefährlich. Etwa wenn Voice-ID-Systeme, wie sie beispielsweise zur Legitimierung bei Banken zum Einsatz kommen, manipuliert werden. Mit Hilfe von Deep-Fake-Verfahren lässt sich die Stimme der Nutzer für die Identifikation imitieren – sind die Betrüger erfolgreich, nehmen sie im Anschluss unerwünschte Überweisungen vor oder räumen das Konto komplett leer. Deep Fakes im Kontext von Social-Engineering-Attacken eröffnen den Trickbetrügern ebenfalls ganz neue Möglichkeiten, an sensible Informationen zu gelangen und Zugriff auf kritische Systeme zu erlangen. Auch Börsenmanipulationen oder gezielte Attacken gegen Unternehmen sind vorstellbar. Und es geht noch weiter – Staatsoberhäupter könnten in gefälschten Videos Dinge sagen oder tun, die zu schweren politischen Verwerfungen führen und damit zu einer echten Gefahr für die Demokratie werden.


Unser Autor

Kai Grunwitz, Geschäftsführer der NTT Deutschland.
https://www.trendreport.de/kai-grunwitz/


Nun ist das Phänomen der Medienmanipulation nicht neu, die Hürden für die Nutzung der Deep-Fake-Technologie und deren digitale Verbreitung sind aber erheblich gesunken. Technische Grundlage ist dabei Deep Learning, eine fortschrittliche, auf Künstlicher Intelligenz basierende Methode, bei der mehrere Ebenen von ML-Algorithmen (Maschinelles Lernen) eingesetzt werden, um schrittweise immer feinere Merkmale aus den Rohdaten zu ziehen. Je mehr Bild- oder Videodaten dem Algorithmus zur Verfügung stehen, desto überzeugender wird das Ergebnis. Denn das System lernt kontinuierlich dazu.

Zwar lassen sich Deep Fakes, insbesondere wenn für die Herstellung frei zugängliche Programme genutzt wurden, bislang in vielen Fällen noch enttarnen. Bei professionell gemachten Fälschungen sieht die Sache schon ganz anders aus. Es ist ein ständiger Wettlauf – mal hat die eine, mal die andere Seite die Nase vorn. Zwar können neuronale Netze nicht nur auf die Erstellung von Fake-Dateien, sondern auch auf die Erkennung von gefälschtem Material trainiert werden. Das forensische Vorgehen ist aber eine, bislang eher begrenzte Möglichkeit. Der Kampf gegen Deep Fakes muss vielmehr auf verschiedenen Ebenen geführt werden, notwendig ist eine Kombination bildungspolitischer, technologischer und konzeptioneller Ansätze.

„Keinesfalls sollten wir warten, bis Bedrohungen durch missbräuchlich eingesetzte KI die Überhand gewinnen.“

Zunächst einmal muss bereits von Kindesbeinen an das nötige Bewusstsein für die Sicherheitsrisiken im Umgang mit den digitalen Medien geschaffen werden. Dieses Bewusstsein fußt dabei auf einem grundlegenden technischen Verständnis: Wenn man nicht weiß, wie etwas funktioniert, kann man es auch nicht verstehen und Risiken einschätzen.

Gleichzeitig gilt es, die digitale Infrastruktur abzusichern. Ein Detection-und-Response-Ansatz, um auf Cyberattacken zu reagieren, greift hier allerdings zu kurz. Standardmäßig müssen Security-by-Design-Lösungen implementiert werden. Zudem sollte das Aufspüren von Schwachstellen nicht als Problem, sondern als Teil der Lösung begriffen werden. So sind beispielsweise unter dem Titel „Hack the Pentagon“ Hacker eingeladen, die öffentlichen Webseiten des US-Verteidigungsministeriums genauer unter die Lupe zu nehmen. Solche sogenannten Bug-Bounty-Programme loben inzwischen auch viele Unternehmen aus, das Aufdecken von Sicherheitslücken wird mit einer Geldzahlung belohnt. Als Vermittler treten dabei große Marktplätze wie Hackerone auf.

Und zu guter Letzt müssen wir unsere Kräfte bündeln: Anstatt verteilter Wissens-Cluster brauchen wir eine zentrale Institution, deren Kernkompetenz Digitalisierung und IT-Sicherheit ist. Eine zu föderale Lösung, wie wir sie aus Deutschland kennen, hemmt die notwendige Dynamik für die Digitalisierung und damit den Kampf gegen Cyberkriminelle.

So gern ich die Netflix-Serie Lupin über den Gentleman-Gauner gesehen habe, digitale Verbrechen sind kein Kavaliersdelikt. Was bei Assane charmant und irgendwie auch gerechtfertigt wirkt, ist eine reale Bedrohung. IT-Sicherheit muss deshalb ganz nach oben auf die unternehmerische und politische Agenda rücken. Keinesfalls sollten wir warten, bis Bedrohungen durch missbräuchlich eingesetzte KI die Überhand gewinnen.

https://hello.global.ntt/de-de/

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay