FM4-Logo

jetzt live:

Aktueller Musiktitel:

Trumerkel

Deepfakes

Zeig mir dein Video und ich glaube dir gar nichts

Künstliche Intelligenz macht es immer einfacher, die Gesichter von Personen in Videos auszutauschen. Auch Stimmen können täusched echt generiert werden. Kommt mit Deepfakes eine Welle an Fake-Pornos und Fake-News auf uns zu?

Von Christoph „Burstup“ Weiss

Seit einigen Tagen sind sogenannte „Deepfakes“ vermehrt in die Aufmerksamkeit gerückt - täuschend echt aussehende Promi-Videos, die mit frei erhätlichen Open-Source-Tools selbst generiert werden können. Genutzt wird die Software, deren künstliche neuronale Netze selbstlernend sind, vorwiegend für die Erstellung von gefälschten Pornos. Gesichter anderer Personen werden auf die Köpfe von Pornodarstellerinnen gelegt. Ausgangsmaterialien sind Fotos jener Person, deren Gesicht im gefälschten Video zu sehen sein soll, sowie ein herkömmlicher Pornofilm. Neben gefälschten Pornos mit Prominenten wird die Technik auch oft für Revenge Porn genutzt.

Dreh- und Angelpunkt der Szene ist ein Forum auf Reddit. Der Deepfakes-Subreddit hat rund 46.000 Mitglieder. Gründer und einer der Moderatoren ist ein User, der sich ebenfalls Deepfakes nennt. Er hat ein Software-Paket namens „FakeApp“ zusammengestellt. Es basiert auf mehreren Open-Source-Librarys, u.a. Keras und TensorFlow. Installation und Bedienung sind nicht ganz trivial, aber User Deepfakes hilft anderen Usern dabei und gibt auch Tipps, wie man mit Google-Bildersuche, Stock-Fotomaterial und YouTube-Videos an geeignetes Ausgangsmaterial gelangt.

Nicht pornographisch, aber auch ein gutes Beispiel für einen Face Swap mittels Tensor Flow: Angela Merkel und Donald Trump.

Reddit-User Sladermanter fragt: “How many photos is considered a good amount?” Deepfakes antwortet, dass es auf die Qualität und Diversität, nicht die Quantität der Bilder ankomme: “Ideally it works best with couple hundred images on both person. Adding more images doesn’t make it magically better.“

Fake-Videos von Prominenten auf Wunsch

Der Subreddit-Moderator erstellt auf Wunsch Videos von Prominenten und lädt sie hoch. Seine Identität hält er – wohl wissend um die Illegalität seines Handelns – geheim. Auch vielen anderen Herstellern der Videos in dem Subreddit scheint das Recht am eigenen Bild ihrer Opfer egal zu sein. Das Forum strotzt vor Heterosexismus und Trump-Trolls freuen sich über gefälschte Pornofilme mit Michelle Obama.

Redditor Krxrx fragt: “Anyone tried putting their own face onto a male pornstar?“, worauf ihn ein anderer User des Narzissmus bezichtigt. Ein weiterer Nutzer schreibt: „Warum glaubt ihr, dass nur Männer sich für das Thema interessieren?“ Daraufhin schimpft ein sexistischer Depp, der User solle seinen „Gender War“ gefälligst woanders führen - ganz so als hätte ein überwiegender Großteil des Treibens im Deepfakes-Subreddit nichts mit völliger Missachtung der Persönlichkeitsrechte von Frauen zu tun.

Zombie

Deepfakes

Mitunter produziert TensorFlow auch Zombiefilme, hier leider in schlechter Auflösung

Ein russicher Redditor sorgt sich immerhin um die Rechte von Schwulen in seinem Land – ob seine Idee aber wirklich für mehr Akzeptanz sorgen wird, ist zu bezweifeln. Er schlägt nämlich vor, den schwulenfeindlichen Gouverneur von Tschetschenien zum Fake-Pornostar zu machen. Er schreibt: „In Russia we have a big problem with gay activist rights. The governor of Chechnya (region in Russia) Ramzan Kadyrov supposedly ordered the execution of 200+ gay people in his region. Vladimir Putin (our president) is a big pussy and doesn’t want to do anything with him. Can someone please make a gay video with Ramzan and some other random guy? We can get it viral within his region. Whatsapp channels with 100k+ subscribers will go crazy over it. Everyone will know it’s fake, but his reputation will be done.”

Die gefährliche politische Dimension von Deepfakes

Hier wird es also bereits politisch. So menschenverachtend die Herstellung von Fake-Prominenten- und Rachepornos ist: die neue Technologie birgt noch unheimlichere Gefahren. Im amerikanischen Präsidentschaftswahlkampf des Jahres 2016 wurden Social Media wie Facebook durch eine Fake-News-Maschinerie in Mazedonien mit tausenden frei erfundenen Artikeln und gefälschten Fotos eingedeckt. Die Leute, die in dieser Fake-News-Fabrik arbeiten, verdienen laut BBC bis zu 30.000 Euro im Monat.

Die jetzt neu aufkommende Möglichkeit, Gesichter in Videos relativ einfach und täuschend realistisch auszutauschen, eröffnet neue Dimensionen für Fake-News. Face Swaps ließen sich zum Beispiel kombinieren mit den kürzlich von Adobe vorgestellten VoCo-Technologie zum Fälschen von Stimmen, und mit der Bildbearbeitung von Nvidia, mit der man z.B. auf Knopfdruck eine Winterlandschaft in eine Sommeridylle oder den Tag in die Nacht verwandeln kann.

Was man mit eigenen Augen in einem Video auf Facebook sieht und hört, kann also - wie schon bei Fotomaterial in den vergangenen Jahren - nicht ohne Gegencheck geglaubt werden. Die Rede eines Politikers kann dank der hochleistungsfähigen, selbstlernenden A.I. bald genauso perfekt gefälscht werden wie eine Kriegsreportage frei erfunden werden kann. Noch sind viele Deepfake-Videos, die auf Reddit verbreitet werden, aufgrund von Glitches und Ungenauigkeiten als solche zu erkennen. Doch die Steigerung der Leistungsfähigkeit künstlicher neuronaler Netze verläuft exponentiell. Es wird nur noch wenige Monate, dauern, bis Nachrichtenclips perfekt gefälscht werden können.


Face-Capturing in Echtzeit mit den Gesichtern von Donald Trump, Vladimir Putin, George Bush und Barack Obama.

Hasskampagnen und Trolling

Face-Swaps können aber auch zum Problem für jene Menschen werden, die Opfer von Hasskampagnen und Trolls im Internet werden. Es reichen ein paar Dutzend Selfies von einem Social Media Account des Opfers, um Fake-Videos mit dessen Gesicht herzustellen. Die Rechenleistung, die benötigt wird, um innerhalb weniger Stunden einen Fake-Porno zu rendern, hat mittlerweile jeder Gaming-PC.

Diese Entwicklung hat auch der Wiener Videokünstler Daniel Horvatits mitverfolgt. Mit seiner Firma Motionworks gestaltet er seit sieben Jahren Motion-Design sowie 2D- und 3D-Animation. Die jüngsten Face-Swap-Technologien und Deepfake-Videos haben sogar ihn überrascht: „Vor allem, dass es die Deepfake-Leute schaffen, sofort den Uncanny-Valley-Effekt zu überspringen. Sie nehmen nicht animierte Gesichter her, sondern Fotos."

Daniel Horvatits

Christoph Weiss

Daniel Horvatits von Motionworks (echtes Gesicht)

Bemerkenswert sei dann vor allem, wie gut es aussehe, wenn sich die Personen im Video drehen: „Das ist nämlich in der herkömmlichen Animation extrem schwierig zu realisieren“, sagt Horvatits. "Ein Foto kann man ja leicht wo draufstitchen und mitbewegen – aber sobald es eine dreidimensionale Bewegung von Kopf oder Körper gibt, muss man das sehr aufwändig animieren. Und diese Software schafft es anscheinend sehr leicht, Drehungen zu berechnen und in einen Porno reinzusetzen.“

Für ihn sei Motiondesign ein Handwerk, das er lange gelernt hat. „Man muss das üben und sich viele Jahre die Tricks aneignen.“ Künstliche neuronale Netze seien in diesem Bereich eine disruptive Technologie. Einerseits drohe sie, Jobs zu vernichten. Andererseits mache sie viele Vorgänge auch für ihn leichter. So habe er vor kurzem auch bereits die neue Audiotechnologie von Adobe verwendet: „Beim letzten Auftrag hat ein Kunde seinen Firmennamen geändert. Ich hätte den Sprecher im Studio neu aufnehmen müssen. Wenn man den neuen Firmennamen einfach eintippen kann, und der Computer spricht ihn mit der Stimme des Sprechers neu, dann ist das natürlich ein goßer Vorteil.“


VoCo von Adobe: Benötigt wird eine halbe Stunde Tonmaterial eines Moderators - schon kann man beliebige Sätze in seiner Stimme faken.

Wünschenswert wäre für Horvatits vor allem, dass es eine öffentliche Debatte über die neuen Technologien gibt, denn: „Kinder haben heute Zugriff auf Pornographie. Ich möchte nicht wissen, wie das sein wird, wenn sie sich einen Fake-Porno mit der Sitznachbarin in der Schule zusammenstellen. Das ist ein beängstigender Gedanke. Wenn so etwas möglich ist, dann muss die Gesellschaft darüber reden.“ Eines ist klar: Applikationen für Face Swaps einfach zu verbieten, wäre vollkommen sinnlos. Es handelt sich um Open-Source-Software – der Geist ist aus der Flasche.

mehr Netzkultur:

Aktuell: