Deepfakes erkennen: Mühsam, aber nicht hoffnungslos
Ernüchternd fallen viele aktuelle Studien aus, die sich mit dem Problem von "Deepfakes" befassen. Die mittels künstlicher Intelligenz geschaffenen Fälschungen können Berühmtheiten irgendwelche Werbebotschaften in den Mund legen oder Politiker durch erstellte Fotos in einer nie stattgefundenen Situation zeigen.
Setzt man dieses Material Menschen vor, kommen immer wieder ähnliche Ergebnisse heraus, die das Magazin "Science" zusammengetragen hat. Ebenso könnte man eine Münze werfen, um zu entscheiden, was echt ist und was nicht.
Immerhin soll ein Grund für das miserable Abschneiden sein, dass das Phänomen der Deepfakes relativ neu ist und kaum jemand im täglichen Leben damit konfrontiert ist, zwischen Fälschung und echten Inhalten entscheiden zu müssen.
Und leider fehlt auch das Bewusstsein dafür, mit welch einfachen Mitteln zum Beispiel die Lippen einer Person mit einer neuen Aussage synchronisiert werden können.
Kein einfaches Rezept
Spannende Untersuchungen finden sich trotzdem, die ein wenig Hoffnung machen. So konnte festgestellt werden, dass der visuelle Cortex, die Sehrinde, auf KI-generierte Gesichter völlig anders reagiert als auf echte Fotografien. Leider überlagern weitere Vorgänge im Hirn dieses Signal, sodass die Versuchspersonen wie zuvor nicht besser oder schlechter Fälschungen erkennen.
Ein paar Anzeichen gibt es aber und es lässt sich lernen, die falschen Bilder zu erkennen. Manchmal sehen Hände völlig falsch aus und haben gern sechs Finger. Manchmal tauchen Beine auf, die zu niemandem gehören. Recht häufig fallen Schatten falsch - am Hemdkragen nach links und von der Sonnenbrille nach rechts.
Aber natürlich wird die KI besser und so offensichtliche Schwachpunkte werden immer seltener. Dann kommt aber anderes Phänomen ins Spiel. Durch das Training an immer mehr Material werden Gesichter gleichmäßiger, regelmäßiger und perfekter. Es fehlen Makel und Unebenheiten. Auch die Körperformen sind eher idealisiert denn natürlich. Das sieht dann weniger schön als vielmehr unheimlich aus. Chip.de zum Beispiel nutzt solche Bilder, die sich glücklicherweise gut erkennen lassen, wie an diesem etwas gruseligen Pärchen zu sehen.
Für gefälschte Stimmen gilt dies im Übrigen auch. Typische Versprecher, ein kurzes Stocken oder Mangel bei der Aufnahmequalität generiert die KI eher nicht.
Je komplexer die Fälschung wird, umso besser lässt sie sich entlarven. Soll zum Beispiel nur eine Tonaufnahme auf Echtheit geprüft werden, scheitern die meisten. Gibt es dazu ein Video, noch dazu mit eingeblendeten Untertiteln, erkennen deutlich mehr Probanden die gefälschten Inhalte.
Und immerhin: Wer weiß, dass sich Bilder und Videos derart manipulieren sowie erstellen lassen und dass die Technik ein paar Schwächen hat, kann Deepfakes verlässlicher erkennen. Ansonsten gilt, was schon immer gilt: Kritisch sein und nachfragen schadet nie.
Wir erweitern unser Team und suchen Gaming-Enthusiasten sowie Unterstützung für unsere Video-Produktion.
Details