Cyber Security Awareness, Cyber Security Gefahren

Wie Sie Deepfakes zielsicher erkennen

1 September 2022 · 12 Min

Erst Anfang dieses Jahres wurde auf Facebook und YouTube ein Video veröffentlicht, in dem der ukrainische Präsident Volodymyr Zelenskyy Soldaten und Soldatinnen dazu auffordert, sich den russischen Truppen zu ergeben. Es war zwar nicht auf Anhieb zu erkennen, aber es handelte sich dabei um eine Fälschung: Hacker hatten das Video auf der Website des nationalen Nachrichtensenders Ukraine 24 platziert, wobei die Botschaft von Zelenskyy als Untertitel zu sehen war. Auch wenn dieses manipulierte Video “schlecht gemacht” war, zeigt es das Potenzial von Deepfake-Videos, Desinformationen zu verbreiten und glaubwürdige Medien zu diskreditieren. 

Der Deepfake-Trend ist längst nicht mehr neu: Im Jahr 2017 teilte ein anonymer Nutzender der Plattform Reddit manipulierte Videos mit Prominenten wie Gal Gadot und Taylor Swift. Der Trend verbreitete sich anschließend wie ein Lauffeuer und bekam erstmals die Aufmerksamkeit der breiten Masse. Auch Unternehmen sprangen auf den Zug mit auf. Beispielsweise machte es ein Unternehmen möglich, verstorbene Verwandte mithilfe von alten Fotos wieder “zum Leben zu erwecken” – inklusive ihrer Stimme. 

Der heutige Fortschritt bei Deepfakes lässt uns mittlerweile zweimal darüber nachdenken, ob das, was wir sehen, wirklich vertrauenswürdig ist. Sehen wir uns deshalb an, was genau Deepfakes sind und wie sich Unternehmen und Einzelpersonen vor ihnen schützen können.

Was ist ein Deepfake?

Mithilfe des so genannten Deep Learning, einer Form der Künstlichen Intelligenz (KI), werden maschinell manipulierte Video- oder Audioinhalte – Deepfakes – erstellt. Diese sollen vorgaukeln, dass im Video gezeigte Personen, meist solche des öffentlichen Lebens, sprechen oder eine Handlung ausführen. Es gibt verschiedene Methoden zur Erstellung von Deepfakes. Die beliebteste ist die Verwendung neuronaler Netzwerke in Kombination mit Face-Swapping-Algorithmen. Mit den immer ausgefeilteren Technologien, die hinter diesen Deepfakes stecken, werden die Bewegungen der “künstlich erstellten Personen” und sogar ihre Wortwahl immer glaubwürdiger, sodass die Aufnahmen zunehmend schwieriger vom Original zu unterscheiden sind.   

Seit 2018 hat sich die Zahl der Deepfakes alle sechs Monate verdoppelt. Bis Dezember 2020 wurden schätzungsweise 85.000 solcher schädlichen Videos veröffentlicht. Um professionelle Deepfakes zu erstellen, sind High-End-Rechnersysteme mit leistungsstarker Grafik und Fachleute, die die Daten und Systeme sorgfältig bereinigen, erforderlich. Computer werden allerdings immer besser darin, die Realität zu simulieren und Cloud-Speicher geben Cyberkriminellen noch mehr Möglichkeiten zur Speicherung und Verarbeitung großer Datenmengen. So sind selbst Laien dank der Fortschritte heute bereits in der Lage, künstliche Inhalte mit Hilfe von Apps zu erstellen. 

Sind Deepfakes illegal?

Deepfakes können für vieles genutzt werden – von harmloser Satire, Kunst oder Unterhaltung bis hin zu Desinformation, der Erstellung erotischer Inhalte, der Befeuerung politischer Skandale, Verbreitung gefälschter Nachrichten und sogar zur modernen Kriegsführung. Es ist an sich aber nicht illegal, Deepfakes zu erstellen. Wenn sie jedoch die Persönlichkeitsrechte von Betroffenen verletzen oder für böswillige oder kriminelle Zwecke genutzt werden, kann dies rechtliche Folgen haben.  

Die rechtlichen Rahmenbedingungen für Deepfakes in der EU sind eine komplexe Mischung aus verschiedenen Gesetzen und Richtlinien. Frameworks wie die DSGVO, der KI-Rechtsrahmen, die Urheberrechtsregelung und der Aktionsplan zur Bekämpfung von Desinformation bieten allgemeine Orientierungshilfen. Die Frage, ob gefälschte Videos vor Gericht als Beweismittel verwendet werden können, ist aber nach wie vor schwierig zu beantworten. Die Vorschriften müssen laufend an die sich stetig entwickelnden Deepfake-Trends angepasst werden. Denn Deepfakes können unter Umständen rufschädigend sein oder sogar ein Risiko für die nationale Sicherheit darstellen, wie das Zelenskyy-Deepfake eindrücklich gezeigt hat.  

Ein weiteres Problem im diesen Zusammenhang ist, dass es noch keine allgemeingültige und einheitliche Regelung zum Schutz vor Deepfakes gibt. Vereinzelte Länder gehen dieses Problem nur langsam an und reagieren nun auf technologische Fortschritte, die eine Gefahr für die Bürgerinnen und Bürger darstellen. Israel hat 2010 zum Beispiel ein Photoshop-Gesetz eingeführt, das Marken dazu verpflichtet, retuschierte Bilder zu kennzeichnen. Das Gesetz kann somit auch auf gefälschte Videos ausgedehnt werden, die von Content Creator in den Sozialen Medien geteilt werden – ein Schritt in die richtige Richtung.   

Wie funktionieren Deepfakes?

Mithilfe eines großen Datensatzes mit Hunderten und Tausenden von Beispielfotos und -videos werden bei der Erstellung von Deepfakes künstliche neuronale Netze darauf trainiert, zu erkennen, ob es sich um Fälschungen oder echte Fotos handelt. Können die neuronalen Netze die richtige Unterscheidung nicht mehr treffen, geht die KI davon aus, dass auch Menschen das Foto/Video nicht mehr als gefälscht erkennen können. 

Beim Face Swapping wird beispielsweise eine vom Computer erstellte Version des Gesichts einer Person verwendet. Die KI kann anhand von bestehenden Videos die Mimik der Person fast perfekt nachahmen und lernt mit jedem neuem Video dazu. Je mehr die KI lernt und je mehr “Futter” sie bekommt, desto glaubwürdiger wird das Deepfake schließlich.  

Das sogenannte Voice Swapping oder Voice Cloning funktioniert ähnlich: Je mehr Audioaufnahmen von einer Person vorliegen, desto mehr kann die KI lernen und ihre Stimme entsprechend besser imitieren. 

 Vergleich der Audiowellen einer echten Tonspur mit den Audiowellen einer gefälschten Tonspur

Die Deepfake-Technologie ist inzwischen so weit verbreitet, dass jeder mit Apps wie FaceApp hochwertige Deepfakes erstellen kann. Diese App wird vor allem zur Unterhaltung genutzt, ermöglicht es aber auch unerfahrenen Nutzenden, verblüffend realistische Videos berühmter Personen mit nur wenigen Klicks zu erstellen. 

Was ist der Zweck von Deepfakes?

Deepfakes werden sowohl im “echten Leben” als auch in fiktiven Situationen eingesetzt. Sie haben sich über die Grenzen von Branchen, Berufen und Unternehmen weiterverbreitet und verursachen zunehmend Chaos. Die Deepfake-Technologie bringt Zuschauende und Zuhörende auf smarte Art und Weise dazu, zu glauben, was sie sehen und hören. Von Einzelhändlern, über Kriminalbeamte bis hin zu Kunstkuratoren – Deepfakes können wichtige Werkzeuge für verschiedene Personengruppen sein, um Botschaften zu veranschaulichen oder bestimmte (auch böswillige) Ziele zu erreichen. 
 
Zum Beispiel revolutionieren Deepfakes die Filmindustrie. Immer mehr Filmschaffende verpassen ihren Schauspielerinnen und Schauspielern ein virtuelles Facelifting, um die Illusion ihrer jüngeren Version zu schaffen. Auch in anderen Unterhaltungsformen wie Parodien, Erzählungen und E-Books tauchen Deepfakes als Hilfsmittel auf, um das Storytelling auf eine neue Ebene zu heben. 
 
Deepfakes helfen außerdem Lehrkräften dabei, den Unterricht im wahrsten Sinne des Wortes lebendiger zu gestalten: Mit Hilfe von künstlich erstellten Medien werden historische Persönlichkeiten nachgebildet und wieder zum Leben erweckt. Die realistischen Darstellungen wichtiger Ereignisse fesseln und hauchen dem Unterricht neues Leben ein.   

 
Die Deepfake-Technologie sorgt zugleich aber auch für große Angst bei denjenigen, die sich in ihrem Fadenkreuz befinden. So werden Deepfakes zum Beispiel zur Gelderpressung, zum Betrug und neuerdings auch für die Verbreitung von Fake News genutzt – in bedrohlichem Ausmaß. Sie sollen die Öffentlichkeit mit falschen, unglaubwürdigen Nachrichten täuschen und nehmen so Einfluss auf gesellschaftliche Entwicklungen. 
 
Derzeit nutzen viele Cyberkriminelle Deepfakes zudem aktiv, um die Kriegsführung zu manipulieren. Russlands Krieg gegen die Ukraine wird so auch auf digitalem Wege geführt. Hacker legen im Zuge dessen Regierungswebsites lahm und verbreiten Desinformationen. Die gefälschte Kapitulation des ukrainischen Präsidenten Zelenskyy ist ein Paradebeispiel für die Nutzung von Deepfakes in diesem Kontext.  
 
Ein Clip des amerikanischen Schauspielers Jordan Peele aus dem Jahr 2018, der in Zusammenarbeit mit BuzzFeed entstand, nutzte einen Deepfake unterdes, um über Fake News aufzuklären. Er zeigte den ehemaligen US-Präsidenten Barack Obama bei einer Diskussion über die potenziellen Gefahren von Deepfake-Videos, wobei Peeles Stimme und Lippenbewegungen über Obama gelegt wurden. Dadurch entstand unter anderem der Eindruck, dass Obama den ehemaligen US-Präsidenten Donald Trump einen “Vollidioten” (engl: “dipshit”) nannte. 

Bildaufnahme aus dem Obama-Deepfake-Video von Jordan Peele 2018
Quelle: BuzzFeedVideo (2018). You won’t believe what Obama says in this video! 

Zuletzt sorgten auch in Deutschland vermeintliche Deepfake-Angriffe für Aufsehen, als die Berliner Bürgermeisterin Franziska Giffey an einer Videokonferenz mit dem Kiewer Bürgermeister Vitali Klitschko teilnahm, um über den Ukraine-Krieg zu diskutieren. Erst nach 15 Minuten stellte sich schließlich heraus, dass es sich nicht um Vitali Klitschko handelte, sondern um einen “Cheapfake”. Bei dieser an Deepfakes angelegten Methode wird manipulierter Ton über ein bereits vorhandenes, echtes Video gelegt. Der Vorfall ist ein weiteres Beispiel dafür, wie gefährlich Videomanipulation – jeglicher Art – sein kann. 

Infobox: Cheapfakes – Die kleinen Geschwister von Deepfakes 

Wie erkenne ich einen Deepfake?

Während es immer schwieriger wird, Deepfake-Videos zu erkennen, verbessern Cyber-Security-Anbieter laufend ihre Erkennungsalgorithmen. Dieses ständige Wettrennen darum, wer sich technisch einen Vorsprung verschaffen kann, geht letztlich oft auf Kosten der Bürgerinnen und Bürger. Man muss selbst aber gar nicht unbedingt immer tief in die fachliche Materie einsteigen, um zu erkennen, ob es sich um ein gefälschtes Video handelt. 

Zunächst sollte man ein Auge auf die Quelle des Videos werfen. Verfolgen Sie zurück, wo und von wem das Video veröffentlicht wurde. Erinnern Sie sich an das Video von Tom Cruise? Es wurde von @deeptomcruise auf TikTok gepostet – nicht Tom Cruise selbst. Schauen Sie sich also genau an, ob das Video von einer glaubwürdigen Quelle stammt oder nicht.  

Suchmaschinen sind ein weiteres wichtiges Tool, das Ihnen helfen kann, Details zu liefern: Wie weit ist ein Bild gereist? Handelt es sich um eine Fälschung? Woher stammt das Bild? Nutzen Sie Suchmaschinen, um einen Reverse Image Check durchzuführen.    

  1. Machen Sie einen Screenshot von dem Video, das Sie für einen Deepfake halten.  
  1. Laden Sie ihn in eine Suchmaschine wie Google Images oder Bing Images hoch.  
  1. Überprüfen Sie die Historie des Bildes: wo es verwendet wurde, welche anderen Quellen es gepostet oder verwendet haben, oder ob es irgendwo eine andere Version gibt.   

Überprüfen Sie selbst die Fakten. Suchen Sie das Video oder den Bericht in einer glaubwürdigen Quelle und vergleichen Sie die Versionen. Geben Sie es nicht weiter, wenn Sie sich nicht absolut sicher sind, dass das Video echt ist. Vertrauen Sie auf Ihr Bauchgefühl, aber nutzen zusätzlich zuverlässige Quellen.   

Hier sind einige Anzeichen, anhand derer Sie manipulierte Videos erkennen: 

  • Unnatürliche Körperbewegungen oder –formen 
    Bewegt sich die abgebildete Person ruckartig? Passen die Bewegungen vom einen zum nächsten Bild nicht zueinander? Stimmt die Positionierung und die Proportionen von Kopf und Körper miteinander überein? 
  • Merkwürdige Färbung 
    Achten Sie auf die Farbe des Videos. Verändert sich die Beleuchtung von einem Frame zum nächsten? Erscheint die Hautfarbe der gezeigten Personen ungewöhnlich? Sehen Sie Schatten an Stellen, an die sie nicht gehören?  
  • Seltsame Augenbewegung 
    Bewegen sich die Augen der Person auf unnatürliche Weise? Sieht das Blinzeln der Person eigenartig aus? Ist überhaupt ein Blinzeln erkennbar? 
  • Unbeholfen wirkende Gesichtsausdrücke/Emotionen 
    Eines der offensichtlichsten Dinge, auf die Sie achten sollten, ist die Mimik. Lässt die Mimik der abgebildeten Person Sie an der Echtheit des Videos zweifeln? Passt das Gesicht nicht zu den Emotionen, die dargestellt werden? 
  • Unnatürlich wirkende Zähne/Haare 
    In Bezug auf Zähne und Haare ist die KI nicht sehr fortschrittlich. Können Sie keine individuellen Zähne oder herumfliegenden Haare erkennen, ist das ein Zeichen für manipuliertes Videomaterial. 
  • Inkonsistente Geräusche oder Ton 
    Sind die Lippenbewegungen nicht synchron, mit dem, was die Person sagt? Klingt die Stimme robotisch oder monoton? Werden einzelne Wörter falsch ausgesprochen? Sind ungewöhnliche Hintergrundgeräusche zu hören oder fehlt der Ton gar komplett? Treten hohe Verzögerungen beim Sprechen auf? 
  • Verschwommene optische Ausrichtung 
    Sind Ränder von Bildern unscharf? Ist das Bildmaterial an mancher Stelle, wie zum Beispiel dem Körperbau, nicht richtig ausgerichtet? Wirken einzelne Frames eines Videos unnatürlich? 
Unterschiede in den Gesichtszügen von Robert De Niro auf einem echten und einem Deepfake-Bild
Quelle: Shamook (2020). De-aging Robert Deniro in The Irishman [Deepfake] 

Wie gefährlich sind Deepfakes für Unternehmen?

Dadurch, dass sie sich so schwer von Originalaufnahmen unterscheiden lassen, sind Deepfakes ein äußerst beliebtes Tool von Cyberkriminellen. Neben Politikern oder berühmten Persönlichkeiten sind so auch Unternehmen beliebte Ziele für Deepfake-Betrug. Kriminelle können beispielsweise Videos erstellen, in denen sich der CEO eines Unternehmens polarisierend zu sensiblen Themen äußert. Der damit angerichtete Schaden – sowohl monetär als auch hinsichtlich des Unternehmensimages – kann immense Ausmaße annehmen. 

Cyberkriminelle erbeuteten erst 2020 bei einem Bankraub in Dubai ganze 35 Millionen Dollar, indem sie einen Bankdirektor mit einem gefakten Telefonanruf hereinlegten. Die Betrüger hatten sich mithilfe von Voice Swapping als Chef eines großen Unternehmens ausgegeben, das sein Konto bei der Bank führte. Der Bankdirektor glaubte den Anrufer anhand der Stimme zu erkennen und gewährte die Transaktion über 35 Millionen Dollar. Die Höhe des Betrages erinnert an Ransomware-Attacken und sogenanntes “Big Game Hunting”, mit Hilfe derer Cyberkriminelle oft ebenfalls hohe Geldsummen erbeuten. Fälle wie diese zeigen uns, wie gefährlich Deepfakes nicht nur für Einzelpersonen, sondern auch für Unternehmen sind.

Schützen Sie Sich vor digitalem Betrug  

Die Entwicklung von Deepfakes mag klein angefangen haben. Heute erschüttern sie regelmäßig die Nachrichtenspalten weltweit und entwickeln sich unglaublich schnell weiter. Was früher noch KI-Expertinnen und –Experten vorbehalten war, ist heute ein Kinderspiel. Der einfache Zugang zur KI-Technologie zur Erstellung von Deepfakes wird in den kommenden Jahren noch für viel Chaos sorgen – und bedarf umsichtigen Verhaltens von uns allen. 

Neue Algorithmen haben die Qualität von Deepfake-Videos auf ein erschreckend hohes Level gehoben. Neben den verfügbaren technischen Möglichkeiten, einen Deepfake zu erkennen, spielt deshalb auch der Mensch immer noch eine zentrale Rolle. Durch ein grundlegendes Bewusstsein darüber, wie Sie gefälschte Inhalte anhand verschiedener Auffälligkeiten erkennen, lassen sich bereits viele Risiken eliminieren.  

Die oben genannten Tipps helfen zwar beim Erkennen von Deepfakes, bieten aber keine hundertprozentige Sicherheit. Organisationen sollten neben technischen Schutzmaßnahmen auf ein Cyber Security Awareness Training wie das von SoSafe setzen. Auf diesem Weg vertiefen sie das Wissen ihrer Mitarbeitenden zu potenziell gefährlichen Inhalten und schulen ihr Verhalten im Umgang mit den Gefahren. So können Mitarbeitende Angriffe frühzeitig erkennen, abwehren und ihre Organisation vor diesen schützen. SoSafe setzt dabei auf Gamification, um das Lernen komplexer Inhalte – wie alles rund um Deepfake-Technologien – so einfach und motivierend wie möglich zu gestalten. Mitarbeitende behalten das Gelernte so langfristig im Kopf.  

Erfahren Sie jetzt mehr dazu, wie Sie die Sicherheitskultur in Ihrer Organisation mit SoSafe stärken können.