Bedrohungslage

Deepfakes: Kinderleichte Erstellung mit großer Schadenswirkung!

8. Juni 2022 von Juliane Groß

deepfakes-2022
©lassedesignen - stock.adobe.com

5
(3)

Die möglichen Bedrohungsszenarien und Angriffe im World Wide Web nehmen mit der voranschreitenden Entwicklung im digitalen Zeitalter maßgeblich zu. Neben Malware, Ransomware, Phishing, Distributed-Denial-of-Service-Angriffen (DDoS) und Botnetzwerke gehören auch Deepfakes bald zum Standardrepertoire der Cyber-Kriminellen. Doch, wie bei jedem Angriffsszenario, gibt es auch hier Mittel und Wege, sich vor Deepfake Szenarien zu schützen und diese frühzeitig zu erkennen.

 

Deepfakes Szenarien, bisher nur bekannt aus Hollywood und jetzt in Realität

Deepfakes Szenarien kannte man bisher nur aus Hollywood, aus angesagtem Blockbuster Filmen mit viel Action, Verschwörungstheorien und u.a. das Mitwirken von Geheimdiensten. Unter Deepfake Videos versteht man, mit Deepfake Software manipulierte Ton-, Video- oder Bildmaterial, dass wiederum großzügig von technik-affinen Bedrohungsakteure im Netz verbreitet werden, um einen kriminellen Zweck zu erfüllen.

Was steckt hinter den Deepfakes?

Der Begriff „Deepfake“ ist eine Verschmelzung der Begriffe „Deep Learning“ und „Fake“. In dieser Kombination bezeichnet man mediale Inhalte von Bild- und Tonaufnahmen, die recht authentisch (echt) wirken, aber mit einer künstlichen Intelligenz, beziehungsweise Deep Learning, hergestellt beziehungsweise verändert wurden. Diese Deepfakeaufnahmen dienen meist zur Täuschung oder Bloßstellung.

Die Qualität dieser Deepfakes hat sich mit dem technologischen Fortschritt mitentwickelt und mit der richtigen technischen Ausstattung (besonders durch hohe Grafikprozessoren) lassen sich heutzutage solche Deepfakes Videoaufnahmen, auf den ersten Blick kaum vom echtem Videoinhalten unterscheiden oder erkennen.

Deepfakes erstellen mit Autoencoder

Die Erstellung von den sogenannten Deepfake Videos erfordert neben dem notwendigen Know-how und Zeit, auch die technischen Voraussetzungen von Hard- und Software. Ursprünglich kamen für die Erstellung der Deepfakes vor allem Autoencoder zum Einsatz. Diese Autoencoder bestehen aus einem künstlichen neuronalen Netz, welches effizient lernt, aus einem Satz von Daten die wesentlichen Merkmale zu extrahieren und anschließend eine Dimensionsreduktion zu erstellen.

Dabei arbeitet der Autoencoder mit einem zweistufigen Prozess, mit dem er ein Deepfake erzeugt. Im ersten Schritt werden mithilfe des künstlichen Netzwerkes das Gesicht und markante Merkmale aus dem Originalen oder Quellbild extrahiert und in sogenannte Merkmalsvektoren zerlegt. Diese werden von Schicht zur nächsten Schicht zu einem Modell zusammengefügt. Im zweiten Schritt des Deepfakeprozesses übernimmt die künstliche Intelligenz (KI) die Decodierung der Vektoren, richtet das Gesicht entsprechend der vorgegebenen Definition und Wunsch zur Täuschung aus und setzt dieses auf das ursprüngliche Original-Bildmaterial um. Bei der Manipulation durch einen Autoencoder benötigt es bei der Erstellung eines Deepfakes eine Vielzahl an Bild- oder Videomaterial mit den entsprechenden Aufnahmen des Gesichtes aus mehreren Blickwinkeln und mit Berücksichtigung der verschiedensten Lichtverhältnisse. Der Prozess kann entsprechend einige Wochen in Anspruch nehmen, wenn die Leistung der Grafikprozessoren nicht optimal bereitgestellt werden.

Deepfakes erstellen mit Generative Adversarial Networks (GANs)

Neben den eben beschriebenen Autoencoder werden über ein Generative Adversarial Networks (GANs) die Deepfakes-Ergebnisse des Autoencoders weiterverarbeitet und verfeinert. Die Generative Adversarial Networks sind im Vergleich zu einem Autoencoder ein generatives Netz, das entspricht einer Gruppierung von solchen mehreren neuralen Netzwerken, die an dem Ergebnis des Deepfakes gleichzeitig arbeiten können. So kann beispielsweise das eine generative Netz die dieselben Statistiken wie das Original aufweisen, während ein anderes,  das diskriminative Netz versucht, Unterschiede zwischen der Fälschung und dem Original zu erkennen und es zu verschleiern.

Generative Adversarial Networks ist im Vergleich zum Autoencoder ein sehr zeitintensives, iteratives Vorgehen und erfordert Unmenge an Rechen-Leistung eines Grafikprozessors. Derzeit werden Generative Adversarial Networks (GANs) eher für realistische Bilder von fiktiven Personen genutzt. Die Gefahr liegt hier, dass die rasante Entwicklung von Deep Learning Hardware in absehbarer Zeit dies ändert und die Technik für die Zwecke genutzt werden, für diese es eigentlich entwickelt worden sind.

 

Warnung und Bedrohung vor Deepfakes in absehbarer Zeit

Selbst die europäische Polizeibehörde, Europol, warnt vor zukünftig verstärkten Einsatz der Deepfake Technologie und geht davon aus, dass manipulierte Bild- und Videoaufnahmen in naher Zukunft zu den einfachen Straftaten zählen wird. In einem Bericht vom 28. April 2022 veröffentlicht das Europol Innovation Lab, die Befürchtungen zu Deepfake Videoaufnahmen und gibt mögliche Bekämpfungswege vor. Die größte Befürchtung der Fachleute ist es, dass durch die neue Technologie neue Formen der Cyberkriminalität entstehen könnten, die man derzeitig nicht genau absehen kann.

Deepfakes sind eine Gefahr für die Gesellschaft

Bei den Deepfakes nutzen die Cyberkriminellen Desinformationskampagnen und die gefälschten Inhalte, um die Öffentlichkeit zu täuschen. Es gibt Organisationen und Spezialisten, die in der Deepfake-Technologie ein sehr hohes Risiko sehen und dem möglichen Identitätsdiebstahl – bei dem wiederum auch Deepfakes eingesetzt werden können. Diese Deepfakespirale könnte einen sehr hohen Schaden im privaten und gesellschaftlichen Bereich anrichten. Eine Studie des University College of London erwähnt diese Technologie als größte kriminelle Bedrohung für die heutige Gesellschaft. Das Europol Innovation Lab hat zu dem Thema intensive Sekundärforschung betrieben und ebenfalls in seinen Report integriert und er gibt einen Ausblick auf diese Ergebnisse.

„Realitätsverlust“ durch Deepfakes

Täuschungen und falsche Nachrichten gibt es seit Anbeginn der Informationsverbreitung, in dem Sinn ist es nichts Neues manipulierte Nachrichten zu verschicken, sondern lediglich die neue Art und Weise der Verbreitung der Informationen. Fachleuten zufolge verstärkt sich der Trend zur Desinformation und Fake News in der Masse von neuen Informationen und Akteure setzen immer häufiger die Deepfake-Technologie für ihre Zwecke ein.

Nicht nur die Masse an den täglichen Nachrichten, die man als autonormal User verfolgt, sondern auch die heutige Glaubwürdigkeit wird zunehmend auf die Probe gestellt. Die Nachrichten und die verbreitenden Informationen beeinflussen tiefgreifend die Art und Weise, wie Menschen die Medien und die Autorität der öffentlichen Einrichtungen und Institutionen wahrnehmen. Das Vertrauen in offiziellen Behörden und unabhängige Berichterstatter von offiziellen Fakten werden untergraben und hinterfragt. Experten fürchten hier die Entstehung einer „gesellschaftliche Verwirrung“, welche Quellen überhaupt zuverlässig sind und welche Quellen es eben nicht sind. Die Spezialisten deklarieren diese Folgen als „Informationsapokalypse“ und „Realitätsverlust“ der Gesellschaft.

Deepfakes Kriminalität und möglich verursachter Schaden der Betroffenen

Neben der Desinformation und Manipulation der Öffentlichkeit beziehungsweise der breiten Masse erleichtern Deepfakes verschiedene Möglichkeiten von kriminellen Machenschaften. Besonders werden Deepfakes für diverse Arten von Betrug, Demütigung im Internet bis hin zur Erpressung oder Beweismittelfälschung genutzt. Im Bereich Betrug zählt u. a. auch durch Deepfakes das Untergraben von visuellen Identitätsprüfungen, das dazu genutzt werden kann für einen breiten Katalog an Straftaten wie Menschenhandel, Verkauf illegaler Waren und Terrorismus. Deepfakes eigenen sich besonders gut für alle kriminellen Aktivitäten, die Dokumentenbetrug und Identitätsfälschung als Grundlage haben.

 

Deepfakes erkennen mit und ohne Deepfake Software Erkennung

Viele offizielle Behören und Institute sind der Meinung, dass ein erstellter Deepfake auf den ersten Blick zwar glaubwürdig erscheint, aber bei näherer Betrachtung Fehler und Unzulänglichkeiten enthalten können.

Auffälligkeiten können u.a. sein:

  • Fehler bei Unschärfe bei den Gesichtsrändern,
  • fehlendes Augenblinzeln,
  • falsche Lichtreflexionen in den Augen,
  • falscher Schattenwurf
  • Unregelmäßigkeiten in der Haarstruktur, bei Venen und Narben,
  • Unstimmigkeiten im Hintergrund, im Motiv, der schärfe oder Tiefe

Wenn man bei der Deepfakes Betrachtung auf die Kleinigkeiten, Fehler und Unstimmigkeiten achtet, kann man diese als Fälschung erkennen und entlarven. Zukünftig soll es zusätzlich Software zum Erkennen von Deepfake Bildmaterial geben, so beispielsweise der Deepfake Detector von Facebook oder der Video Authenticator aus dem Hause Microsoft, um zwei Programme zu nennen. Diese Programme arbeiten, wie auch die Deepfake-Generatoren, mit maschinellem Lernen („Deep Learning“) und verarbeiten die Daten in einem neuronalen Netzwerk (KI-Instanzen). Europol Innovation Lab weist zwar in seinem Bericht auf den derzeit hohen technischen Stand dieser Erkennungstools hin, zählt aber auch Einschränkungen auf, durch die die Software getäuscht werden kann. Es ist somit ein Wettlauf zwischen Deepfake Erkennungstool und Software zur Erstellung des Fake-Materials.

 

Was können Sie in der Zukunft gegen Deepfakes tun?

Die in den letzten Jahren stattfindende Digitalisierung und der technologische Fortschritt haben zur Weiterentwicklung der Technologie zur Fälschung medialer Identitäten und künstlichen Intelligenz geführt. Vor allen die sozialen Plattformen werden als neue Spielwiese zur Verbreitung des Deepfake Materials genutzt. Daher arbeiten Plattformanbieter von Meta über Reddit bis zu TikTok intensiv an der Bekämpfung von Deepfakes und nutzen eine Liste von Tools, diese aufzuspüren. So gelang es, erfolgreich das Deepfake-Video zu entlarven, in dem der ukrainische Präsident Selenskyj sich vermeintlich den russischen Invasoren ergab. Genau solche Beispiele zeigen, wie wichtig die rechtzeitige und vor allem frühzeitige Erkennung von gefälschtem Bildmaterial sein kann. Die Forschungsergebnisse aus dem Bericht von Europol deuten darauf hin, dass sich dieser Deepfake Trend fortsetzen wird und es ein regelrechter Wettlauf mit der Zeit gibt zwischen der Deepfake Erstellung und der Erkennung der Fälschung.

Beunruhigend ist es, dass die Erstellung entsprechender Deepfake Videos bereits im Darknet als Dienstleistung angeboten wird. Auch im Bereich Marketing zur Erstellung von Produktvideos oder Vorstellungsvideo etc. gibt es bereits kostenlose oder auch kostenpflichtige Tools, wie zum Beispiel Synthesia.io.

Auf diesen Dienstleistungsplattformen sucht man sich seinen Avatar aus, gibt seinen Text ein, wählt die Sprache und der Internetdienstleister erledigt den Erstellungsprozess. Sie müssen lediglich nur noch das Video herunterladen und entsprechend verbreiten. Es gibt sogar schon Anbieter, die eine synthetischen Avatar von einem Selbst für die Software anbieten, was im Bereich des Datenschutzes schon mehr als bedenklich sein sollte. Wie Sie sehen, gefährdet die Deepfake Technologie die Privatsphäre und die persönliche Sicherheit jedes Einzelnen.

Fachleute erwarten neue Kriminalitätsformen und fordern mehr Forschung und Finanzierung, um die Risiken und die Gefahr der Deepfake Technologie abzumildern. Aus diesen Gründen ist es von hoher Bedeutung, dass die aufgeführten Gegenmaßnahmen weiterentwickelt und in Kombination nach einer applikationsspezifischen Auswahl eingesetzt werden.

 

Im nachfolgenden Blogbeitrag über Deepfakes „Deepfake-Angriffe: Die tiefgreifenden Bedrohungen und das Vorgehen der Cyberkriminellen“ gehen wir auf die Angriffe an sich ein, wie das menschliche Gehirn diese instektiv erkennen kann und was Sie und Ihre Mitarbeiter präventiv machen können.

Wie hat Ihnen dieser Artikel gefallen?

Average rating 5 / 5. Vote count: 3



0 Kommentar(e)

Schreibe einen Kommentar

* Die DSGVO-Checkbox ist ein Pflichtfeld

*

Ich stimme zu