Deepfake — Ein Deepfake ist ein durch künstliche Intelligenz erzeugter oder manipulierter Bild-, Audio- oder Videoinhalt, der einer realen Person, einem Ort oder Ereignis täuschend ähnlich sieht, aber tatsächlich gefälscht ist.
Einfach erklärt
Stellen Sie sich vor, Sie könnten einem Schauspieler beibringen, perfekt wie eine andere Person zu sprechen und sich zu bewegen – nur dass dieser „Schauspieler“ ein Computerprogramm ist. Genau das sind Deepfakes: Videos, Bilder oder Audioaufnahmen, die von künstlicher Intelligenz so realistisch gefälscht wurden, dass sie kaum vom Original zu unterscheiden sind.
Der Begriff setzt sich aus „Deep Learning“ (eine fortgeschrittene Form der künstlichen Intelligenz) und „Fake“ (Fälschung) zusammen. Die Technologie ermöglicht es, das Gesicht einer Person in einem Video durch das einer anderen zu ersetzen, die Stimme einer Person täuschend echt nachzuahmen oder sogar komplett neue Videos zu erschaffen, die zeigen, wie jemand etwas sagt oder tut, was er niemals gesagt oder getan hat.
Während diese Technologie beeindruckende kreative Möglichkeiten bietet – etwa für Filmproduktionen oder digitale Kunst – birgt sie auch erhebliche Risiken: Deepfakes können zur Verbreitung von Desinformation, für Betrug oder zur Manipulation der öffentlichen Meinung missbraucht werden. Die EU hat deshalb 2024 in ihrer KI-Verordnung erstmals rechtliche Rahmenbedingungen für den Umgang mit dieser Technologie geschaffen.
Wie funktioniert es?
Die technische Grundlage von Deepfakes bilden neuronale Netzwerke, die mit enormen Mengen an Trainingsmaterial gefüttert werden. Um beispielsweise einen Video-Deepfake einer Person zu erstellen, benötigt die KI Hunderte oder Tausende Bilder und Videos dieser Person. Die KI analysiert dabei minutiös, wie sich das Gesicht bewegt, welche Mimik typisch ist, wie Licht und Schatten auf die Haut fallen und welche Proportionen das Gesicht hat.
Die erfolgreichste Methode heißt GANS (Generative Adversarial Networks) – ein Ansatz, bei dem zwei KI-Systeme gegeneinander antreten. Die erste KI (der „Generator“) versucht, einen möglichst realistischen Deepfake zu erstellen. Die zweite KI (der „Diskriminator“) versucht, die Fälschung zu entlarven. Beide lernen voneinander: Der Generator wird immer besser darin, täuschend echte Inhalte zu produzieren, während der Diskriminator immer feiner zwischen echt und gefälscht unterscheiden kann. Dieses Katz-und-Maus-Spiel führt zu Ergebnissen, die für das menschliche Auge kaum noch als Fälschung erkennbar sind.
Bei Audio-Deepfakes funktioniert das Prinzip ähnlich: Die KI analysiert Sprachaufnahmen einer Person und lernt, deren Stimmcharakteristika zu imitieren – Tonhöhe, Sprechgeschwindigkeit, Dialekt, Betonung. Moderne Systeme benötigen teilweise nur wenige Sekunden Ausgangsmaterial, etwa eine WhatsApp-Sprachnachricht, um daraus eine täuschend echte Stimmnachbildung zu erzeugen. Diese kann dann beliebige Texte „sprechen“, die die Person nie tatsächlich gesagt hat.
Besonders bemerkenswert: Die KI arbeitet dabei weitgehend autonom. Nach dem Training kann sie selbstständig neue Inhalte generieren, ohne dass ein Mensch jeden Schritt manuell nachbearbeiten muss. Je mehr Trainingsmaterial verfügbar ist – etwa bei Prominenten oder Politikern, von denen viele öffentliche Aufnahmen existieren – desto überzeugender fällt das Endergebnis aus.
Beispiele und Anwendungen
Deepfakes werden heute in unterschiedlichsten Kontexten eingesetzt – sowohl für legitime als auch für problematische Zwecke:
- Politische Manipulation: Propaganda-Organisationen nutzen Deepfakes, um Politiker Dinge sagen zu lassen, die sie nie gesagt haben, oder um sie in kompromittierenden Situationen zu zeigen. Dies kann Wahlen beeinflussen und das Vertrauen in demokratische Prozesse untergraben.
- Betrugsfälle: Kriminelle nutzen Audio-Deepfakes für moderne Varianten des Enkeltricks – sie imitieren die Stimme von Familienmitgliedern und fordern Geld in Notlagen. Auch biometrische Sicherheitssysteme wie Voice-ID können durch hochwertige Audio-Deepfakes kompromittiert werden.
- Sexuelle Ausbeutung: „Deepnudes“ – KI-generierte Nacktbilder realer Personen – werden für Rachepornografie, Erpressung und Cybermobbing verwendet. Besonders Frauen und Minderjährige sind von dieser Form des Missbrauchs betroffen.
- Filmproduktion: In der Unterhaltungsindustrie werden Deepfakes genutzt, um verstorbene Schauspieler digital „wiederzubeleben“, Gesichter von Stuntpersonen zu ersetzen oder Synchronisation visuell anzupassen.
- Datenschutz in der Forschung: Bei der Entwicklung autonomer Fahrzeuge werden synthetische Gesichter verwendet, um Personen in Trainingsdaten zu anonymisieren – eine Alternative zur traditionellen Verpixelung.
- Social Media: Viele Face-Swap-Filter in Apps basieren auf ähnlichen Technologien und sind bereits millionenfach im Einsatz – meist zu Unterhaltungszwecken.
