Es gibt Bilder und Videos, die wirken täuschend echt, sind aber falsch. Deepfakes nennt man sie. Die bisher größten Opfer dieser per künstlicher Intelligenz gefälschten Inhalte waren von Deepfake-Porno-Videos betroffene Hollywood-Schauspieler wie Nicolas Cage oder Gal Gadot. Nun haben sich Forscher der Sache angenommen und eine ähnliche Methode entwickelt, die ebenso effektiv wie nervig ist.
Wie Gizmodo berichtet, hat die Carnegie Mellon University einen Weg gefunden, den „Stil“ einer Person automatisch auf eine andere zu übertragen. „Barack Obamas Stil zum Beispiel kann in Donald Trump umgeformt werden“, notierten die Forscher in der Beschreibung eines YouTube-Videos, das ihre Methode veranschaulicht.
King – Obama – Trump
Darin werden beispielsweise die Gesichtszüge und -ausdrücke des US-Talkmasters John Oliver auf seinen Kollegen Stephen Colbert sowie auf einen animierten Frosch übertragen, die Mimik von Martin Luther King Jr. wiederum auf Barack Obama und von Obama auf US-Präsident Donald Trump.
Während die Version Oliver-zu-Colbert noch so wirkt, als hätte man ein ziemlich unstetes WLAN-Signal, sind die anderen schon überzeugender. Eine künstliche Intelligenz sorgt mit dem Deepfake-Algorithmus dafür, dass Gesichtsausdruck und Mundbewegungen im Original und Fake genau gleich sind.
Menschen und Blumen
Die Forscher bezeichnen den Prozess in ihrer Abhandlung als „nicht überwachten, datengetriebenen Versuch“. Neben den Person-zu-Person-Deepfakes werden in dem Paper auch Beispiele mit Blumen, Sonnenauf- und untergängen, Wolken und Wind angebracht, die dieselben Bewegungen machen. Die Beispiele an Menschen würden jedoch noch deutlicher zeigen, welches Potenzial ein derartiges Tool habe, so die Wissenschaftler.
Menschliche Animationen könnten so viel leichter erschaffen werden. Allerdings ist die Macht der Deepfakes nicht zu unterschätzen, das wissen nun vor allem die betroffenen Hollywood-Schauspieler.