Notebookcheck Logo

Deepfakes: Deep-Learning gestützte Fake-Face-Generatoren sind nicht so Fake wie erwartet

Alles Fake - hätten sie es gewusst? Kein reales Bild, sondern von Künstlicher Intelligenz kreiert.
Alles Fake - hätten sie es gewusst? Kein reales Bild, sondern von Künstlicher Intelligenz kreiert.
Immer häufiger stehen neben Fake-Accounts oder Fake-News auch Begriffe wie Deep-Fakes und KI-Fakes inklusive Deep-Learning in den Schlagzeilen. Viele dieser neuen Technologien werfen Fragen hinsichtlich Copyright, Datenschutz und Sicherheit auf. Forscher zeigen, dass das Katz-und-Maus-Spiel zwischen Authentizität und Inszenierung gerade erst beginnt.

Gerade bei der jüngeren Generation sind sogenannte Deepfake-Videos, mittels Künstlicher Intelligenz (KI), Generative Adversarial Networks (GAN) und Deep-Learning generierte und gefälschte Videos, der ganz große Renner. Apps wie Avatarify, Faceswap, Reface oder Wombo - nie war es so extrem leicht, sich blitzschnell in bekannte Personen und Stars wie Robert Downey Jr., Vin Diesel oder Lady Gaga zu verwandeln - die Möglichkeiten der KI-Fakes scheinen schier unbegrenzt.

Neben viel Klamauk und kurzweiligen Spaß zum Zeitvertreib und Ablachen haben derlei Fälschungen aber auch eine dunkle Seite. Die mit KI-Unterstützung generierten Fakes sind für Laien inzwischen kaum mehr von realen Inhalten zu unterscheiden und werfen viele Fragen auf, beispielsweise hinsichtlich dem Schutz biometrischer, medizinischer und persönlicher Daten oder Privatsphäre und Copyright. Jetzt zeigen Forscher, dass die Personen, mit deren "Trainigsdaten" derlei Deepfake-Anwendungen trainiert wurden, sehr wohl wiederentdeckt werden können. Ein Katz-und-Maus-Spiel der Algorithmen.

Wie MIT Technology Review berichtet, lassen sich beispielsweise die GAN-basierten und künstlich generierten Gesichter auf der Seite This Person Does Not Exist vergleichsweise leicht als Fakes entlarven und sogar auf die Gesichter derjenigen Personen zurückverfolgen, deren Identität für die Aufnahmen der Trainingsdaten verwendet wurden. Durch einen entsprechenden Algorithmus zur Umkehrung der Schritte der Datenverarbeitung sei es möglich, den KI-Modellen private Daten bis hin zu den Trainingsdaten der originalen Gesichter selbst zu entlocken.

Forscher der Universität von Caen in der Normandie haben in der Studie This Person (Probably) Exists dargelegt, wie sich Gesichter-Trainingsdaten mit Hilfe von sogenannten Identity Membership Attacks (Identitätsbasierte Zugehörigkeitsattacke) sehr genau und treffsicher rekonstruieren lassen. Die Ergebnisse der Forscher dokumentieren, dass persönliche und private Daten in solchen Deepfakes auch in falsche Hände geraten und eventuell sogar für Straftaten missbraucht werden können.  

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2021-10 > Deepfakes: Deep-Learning gestützte Fake-Face-Generatoren sind nicht so Fake wie erwartet
Autor: Ronald Matta, 14.10.2021 (Update: 16.11.2021)