Wachsende Herausforderungen beim Identitätsmanagement Deepfakes schüren Zweifel an biometrischen Gesichtsdaten

Von Bernhard Lück 2 min Lesedauer

Anbieter zum Thema

Gartner prognostiziert, dass bis 2026 KI-generierte Deepfake-Angriffe auf biometrische Gesichtsdaten zunehmen werden. Das werde dazu führen, dass 30 Prozent der Unternehmen diese Art von Identitätsprüfungs- und Authentifizierungslösungen als nicht mehr zuverlässig ansehen.

Mit KI-generierten Bildern von Gesichtern lässt sich eine biometrische Authentifizierung untergraben.(Bild:  © – Sono Creative – stock.adobe.com)
Mit KI-generierten Bildern von Gesichtern lässt sich eine biometrische Authentifizierung untergraben.
(Bild: © – Sono Creative – stock.adobe.com)

„In den letzten zehn Jahren haben Fortschritte in der KI die Erstellung von synthetischen Bildern ermöglicht. Künstlich erzeugte Bilder von Gesichtern, bekannt als Deepfakes, können von böswilligen Akteuren verwendet werden, um die biometrische Authentifizierung zu untergraben oder ineffizient zu machen“, sagt Akif Khan, VP Analyst bei Gartner. „Daher könnten Organisationen die Zuverlässigkeit von Identitätsüberprüfungs- und Authentifizierungslösungen in Frage stellen, da sie nicht mehr erkennen können, ob das Gesicht der zu überprüfenden Person echt oder ein Deepfake ist.“

PAD-Mechanismen sind unzureichend

Identitätsüberprüfungs- und Authentifizierungsverfahren, die biometrische Gesichtsdaten verwenden, stützen sich heute auf die Erkennung von Präsentationsangriffen (Presentation Attack Detection, PAD), um die Authentizität des Benutzers zu bewerten. „Die gegenwärtigen Standards und Testmethoden für die Definition und Bewertung von PAD-Mechanismen berücksichtigen keine digitalen Injektionsangriffe, die mit den heutzutage erstellbaren KI-generierten Deepfakes durchgeführt werden können“, so Khan.

Laut einer Studie von Gartner sind Präsentationsangriffe der häufigste Angriffsvektor, aber Injektionsangriffe werden bis 2023 um 200 Prozent zunehmen. Um solche Angriffe zu verhindern, ist eine Kombination aus PAD, Erkennung von Injektionsangriffen (Injection Attack Detection, IAD) und Bildanalyse erforderlich.

IAD- und Bildanalyse-Tools gegen Deepfake-Bedrohungen

Unternehmen müssen sich vor KI-generierten Deepfakes schützen. Chief Information Security Officers (CISOs) und Verantwortliche für das Risikomanagement sollten deshalb Anbieter auswählen, die über die derzeitigen Standardmethoden hinausgehen und diese neuen Arten von Angriffen überwachen, klassifizieren und bewerten können.

„Unternehmen sollten damit beginnen, ein Mindestmaß an Kontrollen zu definieren, und hierfür mit Anbietern zusammenarbeiten, die gezielt in die Bekämpfung der neuesten Deepfake-Bedrohungen mittels IAD in Verbindung mit Bildanalysen investiert haben“, so Khan.

Sobald die Strategie festgelegt und die Ausgangslage geklärt ist, müssen CISOs und Risikomanager zusätzliche Warn- und Erkennungssignale einbeziehen, z. B. Geräteidentifizierung und Verhaltensanalyse, um die Chancen zu erhöhen, Angriffe auf ihre Identitätsüberprüfungsprozesse zu erkennen.

In erster Linie sollten die Verantwortlichen für das Identitäts- und Zugriffsmanagement Maßnahmen ergreifen, um die Risiken von KI-gesteuerten Deepfake-Angriffen zu mindern, indem sie Technologien auswählen, die eine echte menschliche Präsenz nachweisen können, und indem sie zusätzliche Maßnahmen zur Verhinderung der Übernahme von Konten ergreifen.

Artikelfiles und Artikellinks

(ID:49904396)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung