Notebookcheck Logo

Dystopisch: Deepfake, Face-Swapping & Fake-Porn als neue KI-Trends

Mit der FakeApp sind mittlerweile täuschend echte Fake-Videos machbar.
Mit der FakeApp sind mittlerweile täuschend echte Fake-Videos machbar.
Eine App machts möglich: Im Nu sind Gesichter in Videos ausgetauscht, die Qualität der Ergebnisse überzeugt fast jeden. Was in Hollywood noch Millionen an Dollar kostet, kann heutzutage jeder daheim nachbasteln und das tun sie bereits: Hollywood-Stars im privaten Porno oder die Exfreundin im Revenge-Porno sind die neuen KI-Trends. Die gesellschaftlichen Auswirkungen in Social-Media-Zeiten sind fatal, denn mittlerweile kann ein Laie Realität von Fake-News kaum noch unterscheiden.

Der Herbst 2017 und der Subreddit r/CelebFakes stellen wohl den Beginn der dystopischen Entwicklung dar. Ein kleines Filmchen mit einer vermeintlichen Emma Watson als sich entblößende Darstellerin war lange Zeit das höchste der Gefühle, doch am 30. September 2017 legte ein Reddit-User namens deepfake nach und postete weitere Manipulationen und letztlich einen Algorithmus, um Gesichter in Videos gegen andere auszutauschen. In den folgenden Monaten wurde eifrig an der Verbesserung und Userfreundlichkeit der KI gearbeitet, eine Software namens FakeApp entstand, und innerhalb weniger Monate wurde nicht nur eine neue Reddit-Community namens Deepfakes eröffnet (und mittlerweile wieder geschlossen), sondern auch ein neuer Trend geschaffen, der trotz diverser Zensur-Bemühungen wohl nicht mehr zu stoppen ist. 

Daisy Ridley täuschend echt auf dem Körper einer Porno-Darstellerin.
Daisy Ridley täuschend echt auf dem Körper einer Porno-Darstellerin.

Fake-Videos auf höherem Niveau

Die Implikationen der Technologie sind durchaus als gefährlich zu bezeichnen. Abgesehen vom vielleicht noch spielerischen Ansatz, Gesichter in Porno-Filmen mit den Stars und Sternchen aus Hollywood zu tauschen, sind natürlich wir alle betroffen - nicht nur theoretisch, denn Berichte über durchaus überzeugende Revenge-Pornos mit heruntergeladenen Fotos aus der Social-Media-Welt der jeweiligen Ex-Freundin ließen nicht lange auf sich warten. Im Netz kursieren mittlerweile unzählige Anleitungen und Softwarehilfen, wie man Videos mit Fotos und Videos einer anderen Person täuschend echt manipulieren kann, ohne CGI (Computer-Generated-Design)-Spezialist zu sein. Ein halbwegs aktueller PC mit leistungsfähiger GPU reicht. Gesichtserkennungs-Software hilft sogar mittlerweile bei der Suche nach der passenden Grundlage für das perfekt wirkende Fake-Video.

Wachsam und skeptisch bleiben!

In Zeiten, in denen über die Auswirkungen von Fake-News auf Wahlen und Abstimmungen diskutiert wird, sind das keine guten Nachrichten. Medienkompetenz hin oder her - wer kann denn heutzutage noch unterscheiden, ob ein Video tatsächlich echt und authentisch ist? Wer ist überhaupt so klug, alles zu hinterfragen, was er in sozialen Medien sieht und hört? Facebooks Antwort kennen wir: Künstliche Intelligenz soll die Fakes aufspüren - gute KI gegen böse KI also. Ob das langfristig funktioniert, ist fraglich. Tatsache ist: Das Internet und unsere Gesellschaft sind nicht bereit für eine Welle an täuschend echten Fake-Videos. Wer mehr zum Thema lesen will, hier eine kurze Linkliste, im Beispiel-Video für die Technologie (siehe unten) spricht ein vermeintlicher US-Präsident mit eher ungewöhnlichen Worten:

Quelle(n)

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2018-04 > Dystopisch: Deepfake, Face-Swapping & Fake-Porn als neue KI-Trends
Autor: Alexander Fagot, 22.04.2018 (Update: 22.04.2018)