Als Deepfakes werden mithilfe von Künstlicher Intelligenz (KI) manipulierte Medieninhalte bezeichnet. Sie sind häufig nur schwer als Fälschungen zu erkennen. Deepfakes können manipulierte Bilder, Videos, Texte oder Audioinhalte sein. Die Fälschungen bergen ein hohes Missbrauchsrisiko und lassen sich für Betrug oder Desinformation einsetzen.
Der Begriff Deepfake setzt sich aus den beiden englischen Wörtern „Deep“ und „Fake“ zusammen. „Fake“ bedeutet Fälschung und „Deep“ steht für die KI-Methode Deep Learning, die sich mit „tiefes Lernen“ ins Deutsche übersetzen lässt. Bei einem Deepfake handelt es sich um einen mithilfe von Künstlicher Intelligenz und maschinellem Lernen manipulierten oder generierten Medieninhalt, der realistisch wirkt und nur schwer von einem echten Medieninhalt zu unterscheiden ist.
Manipulierte Medieninhalte können Bilder, Videos, Texte oder Audioinhalte sein. Beispielsweise tun oder sagen Personen in einem per Deepfake gefälschten Video Dinge, die sie in Wirklichkeit niemals getan oder gesagt haben. Deepfakes lassen sich für verschiedene Zwecke einsetzen und bergen ein hohes Missbrauchspotenzial. Sie werden beispielsweise im Unterhaltungsbereich, aber auch für betrügerische Zwecke und Desinformation verwendet.
Das Erzeugen und Verbreiten eines Deepfakes kann zahlreiche Gesetze und Rechte wie Persönlichkeitsrechte, Urheberrecht oder Datenschutzvorgaben verletzen. Aufgrund der enormen Fortschritte im Bereich der generativen Künstlichen Intelligenz in den vergangenen Jahren ist die Qualität der Deepfakes stetig gestiegen. Mittlerweile können selbst technische Laien mit geringem Aufwand sehr echt wirkende Deepfakes erzeugen. Teilweise ist es sogar möglich, Deepfake-Videos oder -Audioinhalte in nahezu Echtzeit, quasi live, zu erzeugen.
Wie werden Deepfakes erzeugt und welche Arten von Deepfakes gibt es?
Zur Erzeugung von Deepfakes kommen KI-Modelle mit künstlichen neuronalen Netzwerken zum Einsatz, die Medieninhalte wie Bilder, Videos, Audio oder Texte analysieren und generieren oder verändern können. Der Ablauf lässt sich in diesen drei Schritten zusammenfassen:
Zunächst werden dem KI-Modell echte Inhalte, zum Beispiel Bilder oder Tonaufnahmen einer bestimmten Person, zur Verfügung gestellt. Das KI-Modell analysiert die Daten und extrahiert Muster oder Details, die für die jeweilige Person typisch und charakteristisch sind. Diese charakteristischen Eigenschaften baut die Künstliche Intelligenz anschließend möglichst realistisch wirkend in einen anderen Kontext ein. Beispielsweise ersetzt sie die Gesichter oder Stimmen vorhandener Personen.
Damit die in dem neuen Kontext generierten Inhalte möglichst echt wirken, werden häufig sogenannte GANs (Generative Adversarial Networks) eingesetzt. Ein GAN besteht aus zwei in einer Art Wettbewerb gegeneinander antretenden künstlichen neuronalen Netzwerken. Das eine Netzwerk, der Generator, generiert fiktive Inhalte beziehungsweise Fälschungen und das andere Netzwerk, der Diskriminator, versucht zu erkennen, ob die generierten Inhalte echt oder gefälscht sind.
Durch ständige Iterationen und gegenseitiges Training werden die Fälschungen immer realistischer, gleichzeitig werden aber auch die Erkennungsfähigkeiten des Diskriminators immer besser. Ziel des Wettstreits der beiden Netzwerke ist es, solange in Schleifen Medieninhalte zu erzeugen, bis diese vom Diskriminator nicht mehr zuverlässig von echten Inhalten zu unterscheiden sind.
Über die KI-Methoden lassen sich verschiedene Arten von Deepfakes erzeugen. Typische Deepfake-Arten sind:
gefälschte Texte, beispielsweise echt wirkende Phishing-E-Mails
gefälschte Videos, in denen zum Beispiel die Gesichter von Personen ausgetauscht sind (Faceswap) oder Personen Dinge tun oder sagen, die sie in Wirklichkeit nicht getan oder gesagt haben
gefälschte Audioinhalte, beispielsweise beliebige mit der Stimme einer bekannten Person gesprochene Texte
gefälschte Live-Inhalte, beispielsweise in Echtzeit veränderte Personen, Stimmen oder Texte in Live-Übertragungen wie Reden
gefälschte Social-Media-Profile mit automatisch generierten gefälschten Inhalten in Bild, Video, Ton und Text
Wie lassen sich Deepfakes erkennen?
Die enormen Fortschritte im Bereich der generativen Künstlichen Intelligenz und der Machine-Learning-Modelle machen es immer schwerer, Deepfakes von echten Medieninhalten zu unterscheiden. Die typischen Fehler der Vergangenheit wie Artefakte in den Bildern und Videos oder blechern klingende Stimmen sind größtenteils verschwunden. Mit bloßem Auge sind Deepfakes oft schwer zu erkennen. Teilweise sind technische Hilfsmittel zur Analyse der Inhalte notwendig.
Typische Merkmale, die auf einen Deepfake hinweisen, sind beispielsweise:
Bildfehler wie scharfe Konturen, falsche Farbübergänge oder wechselnde Texturen
eine eingeschränkte Mimik
fehlender Lidschlag
fehlende Lippensynchronität
unnatürliche Hautstruktur
falsche Aussprache einzelner Wörter
monotone Sprache
unnatürliche Betonungen oder Geräusche
ungewöhnliche Bild- oder Tonverzögerungen
wechselnde Tonqualität
unnatürliche oder ungewöhnliche Körperbewegungen
inkonsistente Sätze oder ungewöhnliche Rechtschreib- und Grammatikfehler
ungebräuchliche Formulierungen
Um Deepfakes zuverlässig als solche zu entlarven, ist es zudem notwendig, auch die Quellen, von denen die Inhalte stammen, zu prüfen. Darüber hinaus sind die Inhalte einem Faktencheck zu unterziehen.
Anwendungs- und Missbrauchsmöglichkeiten
Deepfakes werden nicht nur für illegale oder betrügerische Zwecke eingesetzt. Mittlerweile macht auch die Unterhaltungsindustrie regen Gebrauch von per KI manipulierten Medieninhalten. So werden beispielsweise jüngere oder ältere Versionen von Schauspielern erzeugt oder bereits verstorbene Schauspieler in Videoszenen eingebaut. Auch Synchronstimmen beliebiger Sprecher lassen sich per Deepfake erzeugen und zur Synchronisation von Filmen verwenden. Weitere Anwendungsmöglichkeiten ergeben sich im Bildungsbereich, in der Medizin oder der Forensik.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Betrügerische oder missbräuchliche Einsatzmöglichkeiten von Deepfakes sind das Erzeugen pornografischer Inhalte mit bestimmten Personen, Desinformation und Fakenews, politische Propaganda und Einflussnahme, Identitätsdiebstahl, Social Engineering und Phishing, Erpressung, Rufschädigung, Verleumdung, Täuschung biometrischer Systeme, Kunstfälschungen und vieles mehr.