Die Polizeibehörde der Europäischen Union namens Europol veröffentlichte jüngst eine Studie, die das „gefährliche“ Potential von Deepfakes beleuchtet. Bei Deepfakes handelt es sich um bearbeitete Medieninhalte, also etwa Bilder aber auch Videos, die abgeändert oder verfälscht worden sind. Es heißt, mit dieser Technologie lasse sich Terrorismus unterstützen, der Finanzmarkt beeinflussen und auch die sexuelle Ausbeutung von Kindern befeuern.
Deepfakes in jüngster Vergangenheit bereits gefährliches Potential bewiesen
In der Studie von Europol wird unter anderem auf aktuelles Beispiel eingegangen, welches den Missbrauch von Videoinhalten mit Hilfe der Deepfake-Technologie zeigt. So wurde ein Video des ukrainischen Präsidenten Wolodymyr Selenskyj inszeniert, in welchem er seinem Volk die Kapitulation vor Russland nahelegt, wie unter anderem das ZDF berichtete. Dies belege bereits, dass „diese Art von Desinformationen sehr gefährlich sein kann“.
Durch die Technologie kann also der Anschein erweckt werden, dass Personen des öffentlichen Lebens aber auch du Sachen gesagt oder getan haben, obwohl das nicht ansatzweise der Wahrheit entspricht. Dabei wird sich unter anderem Erkenntnissen aus dem sogenannten „Deep Learning“ bedient. Hierbei handelt es sich um eine Form des maschinellen Lernens, die zur „rapiden Verbesserung der Deepfake-Technologie“ beigetragen habe.
Beim „Deep Learning“ wird eine Maschine mit Datensätzen (also etwa Bildern und Videos einer berühmten Person) gefüttert. Durch die Analyse der Datensätze kann die Maschine Muster auswerten, wie die Mimik, Gestik, Stimmfarbe und Betonung von Worten einer Person. So kann ein Deepfake entstehen, wo jemand Sachen sagt oder tut, die niemals so stattgefunden haben. Je mehr Daten zur Verfügung stehen, desto besser der Deepfake am Ende.
Manipulierte Inhalte können schweren Schaden auf vielen Ebenen anrichten
Doch nicht nur Desinformationen wie im Ukraine-Beispiel können durch gefälschte Videos von hochrangigen Regierungsmitgliedern, Firmenvorständen und weiteren durch die Deepfake-Technologie verbreitet werden. Europol warnt, dass es noch viel weitreichende Konsequenzen geben kann:
Gefahren laut Europol | Beispiel |
Belästigung und Erniedrigung von Einzelpersonen im Netz | – etwa durch gefälschte Nacktbilder oder gar Porno-Videos von dir |
Erpressung und Betrug | – Durch Deepfake-Videos von dir, wo du beispielsweise etwas verbotenes oder verstörendes tust, kannst du erpresst werden – Auch das Vorspielen falscher Tatsachen (eine Person, die dir nahe steht sei in Gefahr) kann dich zum Opfer von Betrug oder Erpressung machen |
Online-Identitäten fälschen (insbesondere im Online-Handel) | – Verkäufer*innen von Webseiten müssen sich zunehmend als echt verifizieren; Betrug an Käufer*innen soll dadurch minimiert werden – Durch Technologie könnte das Schatten-Business wieder neu entfacht werden |
Des Weiteren meint Europol, dass auch die sexuelle Ausbeutung von Kindern im Netz durch Deepfakes unterstützt werden könne. Minderjährigen könne damit beispielsweise bei Facetime und Co. vorgegaukelt werden, sie würden mit einer gleichaltrigen Person chatten und lassen sich dadurch zu sexuellen Handlungen verleiten.
Auch in Wirtschaft und Politik könne man viel Schaden anrichten. Falsche Statements oder manipulierte Daten stellen eine Gefahr für den Finanzmarkt dar oder können die gesamtgesellschaftliche Meinung zu politischen Themen beeinflussen.
Europol stellt heraus, dass die Technologie von Polizei und Justiz in jedem Falle ernst genommen werden müsse. Aber auch Webseitenbetreibende müssen ihre Richtlinien und Methoden zur Verifizierung anpassen, um „auf die neue Realität durch Deepfakes“ vorbereitet zu sein.
Quelle: „Facing reality? Law enforcement and the challenge of deepfakes“ (Europol, 2022)
Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.