Highlight

Deepfakes: So realistisch sind Fake-Videos heute – und so gefährlich

Die Nicolas Cages in "Der Herr der Ringe" schauen besorgt angesichts der Gefahren von Deepfakes ...
Die Nicolas Cages in "Der Herr der Ringe" schauen besorgt angesichts der Gefahren von Deepfakes ... Bild: © YouTube/derpfakes 2019

Politiker sagen Dinge, die sie nie gesagt haben, und berühmte Schauspielerinnen spielen in Pornos mit – Deepfakes haben nicht nur positiv von sich reden gemacht. Wir erklären, welche Technologie hinter den Fake-Videos steckt und welche Risiken, aber auch welche Möglichkeiten sie birgt. Immerhin: Noch kannst Du Deepfakes recht einfach entlarven.

Kennst Du Jennifer Buscemi? Diese erschreckend echte, aber ebenso verstörende Mischung aus Jennifer Lawrence und Steve Buscemi ging Anfang des Jahres viral. In dem Video ist das Gesicht von Buscemi auf den Körper von "Die Tribute von Panem"-Star Lawrence montiert, und zwar so gut, dass die Mimik beim Sprechen darunter nicht leidet.

Da das Internet offensichtlich eine Schwäche für Nicolas-Cage-Memes hat, war es nur eine Frage der Zeit, bis auch der "Ghostrider" in Deepfakes auftaucht. Der YouTube-Kanal derpfakes stellt nicht nur eine der markanten Szenen aus "Der Herr der Ringe: Die Gefährten" mit lauter Nicolas Cages nach. Er stellt auch unter Beweis, dass Ross aus "Friends" eigentlich noch viel mehr nach Ross aussieht, wenn er das Gesicht von Nicolas Cage bekommt.

Die Ursprünge: Reddit und Pornos

Angefangen haben Deepfakes allerdings nicht ganz so spaßig. Ihr Ursprung geht auf einen Subreddit zurück, in dem ein Nutzer namens DeepFakes Videos verbreitete, in denen er die Gesichter bekannter Schauspielerinnen auf die Körper von Pornostars montiert hatte. Opfer solcher Fake-Porno-Videos wurden etwa die aus "Star Wars" bekannte Daisy Ridley, "Wonder Woman" Gal Gadot oder Maisie Williams ("Game of Thrones").

FakeApp-neu fullscreen
"Star Wars"-Darstellerin Daisy Ridley wurde Opfer eines Deepfakes – ihr Gesicht landete auf dem Körper einer Pornodarstellerin. Bild: © Motherboard/Vice 2018

Nach einer Weile wurde der Subreddit geschlossen, doch der Code, den der Entwickler verwendete, war öffentlich zugänglich. Und da Deepfakes auf maschinellem Lernen basieren, kann theoretisch jeder mit einer leistungsstarken GPU entsprechende Berechnungen von einem Computer vornehmen lassen – vollkommen ohne Photoshop-, Videoschnitt- oder CGI-Kenntnisse.

Die Technologie: FakeApp macht Fake-Videos zum Kinderspiel

Die Möglichkeit, das Gesicht oder den Körper einer Person auf eine andere zu übertragen, ist nicht neu. In Hollywood oder bei anderen aufwendigen Filmproduktionen ist CGI längst gang und gäbe. Allerdings sind solche Methoden teuer und alles andere als einfach zu realisieren. Bei Deepfakes sieht das Ganze etwas anders aus, da hier der Computer die Arbeit übernimmt.

Basis ist das sogenannte Deep Learning, eine Form des Maschinellen Lernens. Hierfür ist es Voraussetzung, dass der Computer aus Erfahrungen lernt – nur so lassen sich bestimmte Aufgaben lösen. Der Rechner lernt komplizierte Konzepte, indem er sie aus einfacheren zusammensetzt. Menschliche Eingaben (nach dem Stellen der Aufgabe) werden damit überflüssig.

Um Deepfakes zu erstellen, wird ein Encoder genutzt, der mit Trainingsdaten (in diesem Fall mit Bildern der zu verschmelzenden Personen) gefüttert wird. Das neuronale Netz komprimiert diese Daten und lernt anhand der Beispiele, welche Daten wichtig sind und welche nicht, um die Person am Ende wieder zusammenzusetzen. Dies erledigt dann ein Decoder. Da das Netz bestimmte Strukturen erkennt, lernt es mit der Zeit, das Gesicht einer Person auch dann wieder richtig auszugeben, wenn der Encoder ein verzerrtes Bild dieses Menschen als Input erhält, beschreibt ein Entwickler auf der Webseite KDnuggets.

Trainiert werden zwei Decoder: einer für Person A (im Videobeispiel: Jimmy Fallon) und einer für Person B (John Oliver). Dafür reichen in der Regel schon etwa 300 Bilder aus – idealerweise aus verschiedenen Perspektiven. Ideal sind Videos, da sie viele Einzelbilder pro Sekunde liefern. Wie lange das Training dauert, ist von der eingesetzten GPU abhängig. Der Trick ist dann schließlich, den Encoder mit dem Gesicht von Person A zu füttern und statt des passenden Decoders von Person A den zweiten trainierten Decoder von Person B zu verwenden.

Deepfake fullscreen
Für Deepfakes muss der Algorithmus mit Daten von Person A und Person B trainiert werden. Bild: © TURN ON 2019

Einen solchen Code kann sich mittlerweile fast jeder mit einer leistungsstarken GPU zunutze machen. Bei GitHub gibt es zahlreiche Repositories, in denen Entwickler an Deepfake-Algorithmen arbeiten. So ist auch eine passende Deepfake-Software names FakeApp entstanden, mit denen sich Fake-Videos besonders einfach erstellen lassen. Allerdings stand die Anwendung immer wieder in Verdacht, nicht ganz ungefährlich zu sein.

Die Möglichkeiten: Filme streamen mit Wunschbesetzung

In erster Linie könnten beispielsweise Filmemacher von solch einer Technologie profitieren. Deepfake-Software könnte helfen, die Produktionskosten zu senken. Noch interessanter wäre vielleicht die Möglichkeit, Filme relativ einfach auf unterschiedliche Zielgruppen zuschneiden zu können. Je nach Zielmarkt könnte ein Schauspieler durch einen anderen ersetzt werden – oder die Wahl würde gleich dem Zuschauer überlassen. Stell Dir vor, Du willst in Zukunft einen Film oder eine Serie bei Netflix sehen, und kannst Dir vor dem Start aussuchen, welche Schauspieler darin zu sehen sein sollen.

Deepfakes Prinzessin Leia fullscreen
Die obere Prinzessin Leia entstand aufwendig und teuer per CGI, die untere innerhalb von 30 Minuten an einem gewöhnlichen PC per Deepfake-Software. Bild: © YouTube/ColdFusion 2019

Prominente oder Models könnten sich ein neues Geschäftsmodell eröffnen: Statt selber für eine neue Wäschekollektion oder einen Duft zu posieren, verkaufen sie einfach eine Lizenz ihres Gesichts. Kleidungsmarken könnten damit werben, dass ihre Produkte im Online-Shop auf Knopfdruck vom begehrten Promi vorgeführt werden. Zu guter Letzt entstanden und entstehen mithilfe von Deepfake-Software auch zahlreiche Spaßvideos, die einfach nur der Unterhaltung dienen – Nicolas Cage lässt grüßen ...

Die Gefahren: Propaganda und Persönlichkeitsrechtsverletzung

Doch aus harmlosem Spaß kann auch ganz schnell bitterer Ernst werden. Schließlich ist es gar nicht so abwegig, dass die Technologie zum Erreichen politischer Ziele missbraucht wird. Politikern können relativ einfach Worte in den Mund gelegt werden, die sie niemals gesagt haben. Fake-News könnten mithilfe von Fake-Videos untermauert werden. Da sich durch Deep Learning nicht nur die Gesichter von Personen, sondern auch ihre Stimmen austauschen lassen, ist die Gefahr von Deepfakes als Propagandamittel nicht zu unterschätzen.

Adobe Konferenz fullscreen
Schon im Jahr 2016 stellte Adobe eine Software vor, die mithilfe von Algorithmen Stimmen von echten Personen imitieren lernt. Bild: © YouTube/ColdFusion 2019

Schon die Ursprünge der Fake-Videos zeigen, dass diejenigen, die dahinter stecken, nicht nur Gutes im Sinn haben. Die Fake-Pornos von Prominenten stellen Verletzungen ihrer Persönlichkeitsrechte dar und können unter anderem rufschädigend sein. Doch es müssen nicht immer nur Promis sein: Da immer mehr Menschen viel Bild- und Videomaterial von sich ins Internet stellen, lassen sich Deepfakes auch mit weniger bekannten Personen basteln – etwa als Racheakt nach einem Beziehungsdrama.

Deepfakes entlarven: Noch geht das relativ einfach

Immerhin: Noch kannst Du Fake-Videos meist gut von echten Videos unterscheiden. Denn nicht jeder Deepfake ist perfekt umgesetzt. Das Ergebnis hängt unter anderem davon ab, mit wie vielen Beispielbildern der Algorithmus gefüttert wurde und wie gut sich das Ausgangsmaterial eignet. Erhält der Encoder etwa keine Bilder einer Person im Profil, dann wird es diese später auch nicht ausgeben können. An solchen Stellen wird das Video verschwommen erscheinen.

Deepfakes Trump fullscreen
In den meisten Fake-Videos wird seltener geblinzelt als in echt. Bild: © YouTube/derpfakes 2019

Ein weiterer Anhaltspunkt ist häufig das Blinzeln einer Person. Da Prominente auf Bildern im Internet fast immer die Augen geöffnet haben, kann es vorkommen, dass eine KI nicht ausreichend auf eine Ausgabe der Person mit geschlossenen Augen trainiert wird. Das Ergebnis: Personen in Deepfakes blinzeln sehr viel seltener als üblich – gewöhnlich wäre ein Blinzeln alle zwei bis zehn Sekunden.

Es gibt aber noch mehr Indizien für ein Fake-Video, die sich besonders gut erkennen lassen, wenn Du das Video langsamer abspielst. Achte doch einmal auf folgende Anzeichen:

  • Verschwommene Stellen im Gesicht einer Person, aber nicht im Rest des Videos
  • Veränderungen der Hautfarbe an den Rändern des Gesichts
  • Ein doppeltes Kinn, doppelte Augenbrauen oder Dopplungen an den Rändern des Gesichts
  • Verschwommene Stellen im Gesicht, wenn es von einer Hand oder einem anderen Objekt teilweise verdeckt wird

Auf diese Weise können auch künstliche Intelligenzen Deepfakes entlarven. Noch liegt die Erfolgsquote beim Erkennen von Fake-Videos laut Fast Company bei 95 Prozent, wenn allein die Häufigkeit des Blinzelns untersucht wird. Doch die Fakes dürften im Laufe der Zeit immer besser werden.

Fazit: Die Büchse der Pandora ist geöffnet

Und so könnte es schon bald zu einem Rennen der Technologien kommen: Deepfake-Software vs. Deepfake-Erkennung. Klar ist, dass Deep Learning ein mächtiges Werkzeug ist. Mit dem richtigen Code werden auch Menschen ohne tiefer gehende Programmierkenntnisse zu Fake-Video-Machern. Das kann auf der einen Seite zu lustigen und vergleichsweise harmlosen Ergebnissen führen – schließlich wird niemand denken, dass Jennifer Lawrence und Steve Buscemi bei den Golden Globes wirklich zu einer Person verschmolzen sind. Auf der anderen Seite drohen aber Persönlichkeitsrechtsverletzungen, Rufschädigungen oder der Missbrauch als politisches Propagandamittel.

Die Grenze zwischen dem, was real ist, und dem, was nicht real ist, verschwimmt.
Bryan Fendley

Wie Fendley, Experte für künstliche Intelligenz von der University of Arkansas, beschreibt, dürfte es zunehmend schwerer werden, Deepfakes zu erkennen. Abgeordnete in den USA warnen bereits vor den Gefahren durch Fake-Videos für die Präsidentschaftswahlen 2020, berichtete CNN im Januar dieses Jahres. Doch die Risiken werden sehr unterschiedlich eingeschätzt. Thomas Rid, Professor der Johns Hopkins University's School of Advanced International Studies merkte auf Twitter an, dass Fake-News und Verschwörungstheorien auch mit viel weniger "Beweisen" geglaubt werden. Deepfakes wären dazu gar nicht nötig.

Einerseits sollten wir uns also bewusst machen, dass heutzutage nicht nur News und Fotos, sondern eben auch Videos recht einfach gefälscht sein können. Anderseits liegt auch darin wieder eine Gefahr – nämlich, dass wir irgendwann überhaupt keine Beweise mehr akzeptieren und alles hinterfragen werden.

Wie so oft ist nun die Problematik, was wir mit der Technologie anstellen, die wir zur Verfügung haben. Der richtige Zeitpunkt, ethische Richtlinien und Grenzen für künstliche Intelligenz zu schaffen, wäre jetzt. Ansonsten ist es wahrscheinlich nur eine Frage der Zeit, bis wir selber in einem Video auftauchen, in dem wir Dinge machen, die wir nie getan haben. Und wer möchte das schon?

Angebot
Ich bin immer wieder erstaunt, was heutzutage mit relativ einfachen Mitteln alles möglich ist. Die Technologie ist mächtig – die Frage ist nun, wie wir sie nutzen. Was meinst Du: Sind Deepfakes ein harmloser Spaß oder wird ihr Gefahrenpotenzial unterschätzt? Schreib es unten in die Kommentare!
Kommentar schreiben
Relevante Themen:

Neueste Artikel zum Thema Software

close
Bitte Suchbegriff eingeben