Kampf gegen Deepfakes Wie sicher ist die Wahrheit im Netz?

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

In einer Zeit, in der KI-generierte Inhalte von der Realität kaum noch zu unterscheiden sind, hat Microsoft Research einen Bericht veröffentlicht. Unter dem Titel „Media Authenticity Methods in Practice“ analysieren Experten die aktuellen Möglichkeiten und Grenzen von Technologien, die echtes Material von Manipulationen unterscheidbar machen sollen.

Es wird zunehmend schwieriger, echte von manipulierten oder KI-generierten Bildern, Videos und Audioaufnahmen zu unterscheiden. Microsoft spricht in diesem Beitrag über Technologien und Methoden, die helfen sollen, die Provenance – also Ursprung und Bearbeitungshistorie digitaler Medien – verlässlich nachzuweisen.(Bild:  Midjourney / KI-generiert)
Es wird zunehmend schwieriger, echte von manipulierten oder KI-generierten Bildern, Videos und Audioaufnahmen zu unterscheiden. Microsoft spricht in diesem Beitrag über Technologien und Methoden, die helfen sollen, die Provenance – also Ursprung und Bearbeitungshistorie digitaler Medien – verlässlich nachzuweisen.
(Bild: Midjourney / KI-generiert)

Mit dem rasanten Aufstieg synthetischer Medien (von täuschend echten KI-Bildern bis hin zu manipulierten Audio-Aufnahmen) steht das Vertrauen in digitale Informationen unter Beschuss.

Ein Bericht von Microsoft betont, dass es keine „Wunderwaffe“ gegen digitale Täuschung gibt. Stattdessen sei ein kombinierter Ansatz aus technologischen Standards und neuen Richtlinien erforderlich.

Die drei Säulen der Verifizierung

Der Bericht konzentriert sich auf drei Hauptmethoden, um die Integrität von Medien zu sichern:

  • Sichere Herkunftsnachweise (C2PA): Microsoft setzt stark auf den Standard der Coalition for Content Provenance and Authenticity. Hierbei werden Metadaten direkt in die Datei eingebettet, die lückenlos dokumentieren, wann, wo und mit welchen Werkzeugen ein Bild oder Video erstellt wurde.
  • Unsichtbare Wasserzeichen: Diese digitalen Markierungen bleiben auch dann erhalten, wenn ein Bild bearbeitet oder das Format geändert wird. Sie dienen als zusätzliche Sicherheitsebene, um die Herkunft zu zertifizieren.
  • Soft-Hash-Fingerprinting: Ähnlich wie ein menschlicher Fingerabdruck können diese digitalen Signaturen genutzt werden, um Versionen eines Inhalts wiederzuerkennen, selbst wenn diese leicht verändert wurden.

Das Problem ist nicht nur technisch

Microsoft betont, dass Authentizitätssysteme nicht nur gegen algorithmische Angriffe gewappnet sein müssen. Besonders kritisch seien sogenannte soziotechnische Angriffe: Szenarien, in denen Nutzer Authentizitätssignale falsch interpretieren oder manipulierte Kontexte für echt halten.

Hinzu kommt die regulatorische Dimension. Weltweit entstehen Vorgaben, die Transparenz bei KI-generierten Inhalten fordern. Damit verschiebt sich die Frage von „Kann man Fälschungen erkennen?“ hin zu „Wie wird Herkunft systematisch dokumentiert?“

Media-Authenticity-Methoden sind kein Add-on für Plattformbetreiber, sondern Teil einer Governance-Strategie. Wer KI-gestützte Inhalte produziert oder verteilt, müsse sich mit Provenance-Standards, Signaturketten und Angriffsszenarien auseinandersetzen.

Microsoft beschreibt den aktuellen Stand als Übergangsphase. Die Technologien sind vorhanden, ihre flächendeckende Implementierung jedoch noch nicht. Vertrauen entsteht erst, wenn technische Verfahren, Standards und Nutzeroberflächen zusammenspielen.

(ID:50742499)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung