Kommentar von Eugeny Malyutin, Sumsub Autonome AI Fraud Agents läuten die nächste Ära des Identitätsbetrugs ein

Von Eugeny Malyutin 5 min Lesedauer

Anbieter zum Thema

Für viele Cybersicherheitsexperten gilt das Jahr 2024 als Wendepunkt im digitalen Betrug. Durch Fraud-as-a-Service-Plattformen und fertige Toolkits sank die Einstiegshürde für Identitätskriminalität massiv. Doch während die schiere Masse an Angriffsversuchen weltweit weiterhin Millionen erreicht, findet aktuell eine weitaus gefährlichere Transformation von simplen, massenhaften Attacken zu hochgradig professionellen, KI-gesteuerten Operationen statt.

Der Autor: Eugeny Malyutin ist Head of LLM bei Sumsub(Bild:  Sumsub)
Der Autor: Eugeny Malyutin ist Head of LLM bei Sumsub
(Bild: Sumsub)

Der aktuelle „Identity Fraud Report 2025-2026“ von Sumsub warnt in diesem Zusammenhang vor dem Aufstieg sogenannter AI Fraud Agents, die dieses Jahr prägen könnten.

Was sind AI Fraud Agents?

Bisher fungierte Künstliche Intelligenz (KI) im Arsenal von Betrügern primär als Assistenzwerkzeug, etwa um Dokumente zu manipulieren, Deepfakes für Liveness-Checks zu erstellen oder Phishing-E-Mails zu formulieren. AI Fraud Agents gehen jedoch deutlich weiter. Es handelt sich um autonome Softwaresysteme, die generative Inhalte mit komplexem Scripting und Verhaltensmimikry kombinieren, um vollständige Verifizierungsprozesse eigenständig von Anfang bis Ende durchzuführen.

Technisch gesehen stützen sich diese Agenten auf drei Säulen: Generative KI zur Erstellung von Identitätsmerkmalen, Automatisierungs-Frameworks zur Interaktion mit Schnittstellen und Reinforcement Learning. Letzteres ist der entscheidende Faktor für die Gefährlichkeit dieser Systeme. Ein AI Fraud Agent agiert adaptiv. Er lernt aus gescheiterten Versuchen, erkennt, an welchem Punkt eine Sicherheitsbarriere den Prozess gestoppt hat, und passt seine Strategie für den nächsten Versuch in Echtzeit an. Damit verwandelt sich Betrug von einem unkoordinierten Ausprobieren in einen dynamischen, skalierbaren Prozess.

Die Anatomie des Sophistication Shift

Im Vergleich zum Vorjahr verzeichnete die Branche im letzten Jahr einen Anstieg von 180 Prozent bei sogenannten hochentwickelten Betrugsfällen. Während amateurhafte Versuche wie schlecht bearbeitete Ausweiskopien durch moderne Verifizierungssysteme zunehmend effektiv herausgefiltert werden, konzentrieren sich Kriminelle nun auf weniger, aber dafür professionellere und effektivere Angriffe.

AI Fraud Agents unterscheiden sich in wesentlichen Punkten von klassischen Betrugsmethoden:

  • 1. Synthetische Identitäten in Clustern: Anstatt lediglich gestohlene Daten zu verwenden, generieren Agenten komplette synthetische Identitäten, die aus einer Mischung von realen und erfundenen Informationen bestehen. Diese Profile werden oft in vernetzten Clustern angelegt, die untereinander interagieren, um Glaubwürdigkeit vorzutäuschen.
  • 2. Echtzeit-Interaktion: Moderne Liveness-Prüfungen verlangen oft spezifische Reaktionen des Nutzers. AI Fraud Agents sind in der Lage, nicht nur starre Videos abzuspielen, sondern interaktive Avatare zu steuern, die auf Aufforderungen während eines Verifizierungsprozesses reagieren können.
  • 3. Angriff auf den Kontext, nicht nur den Inhalt: Klassische Abwehrsysteme prüfen das Dokument oder das Gesicht. AI Fraud Agents zielen zunehmend auf die Datenpipeline selbst ab. Durch Telemetrie-Manipulation, SDK-Manipulation oder die Injektion synthetischer Frames direkt in den Kamera-Stream versuchen sie, das System glauben zu lassen, eine authentische Sitzung finde statt, während im Hintergrund ein Bot agiert.

Warum herkömmliche Detektion an ihre Grenzen stößt

Die Schwierigkeit bei der Identifizierung dieser Agenten liegt in ihrer Fähigkeit, menschliches Verhalten nahezu perfekt zu imitieren. Während frühere Bots durch unnatürliche Geschwindigkeit oder repetitive Muster auffielen, können AI Fraud Agents menschliche Tipp-Rhythmen, Mausbewegungen und sogar Verzögerungen simulieren.

Zudem nutzen Angreifer zunehmend Techniken zur Maskierung der Umgebung. Emulator-Farmen (Simulierung vieler verschiedener Geräte) und virtuelle Maschinen verschleiern Geräte-Fingerabdrücke und Standortsignale, die normalerweise wiederholte Betrugsversuche entlarven würden. Werkzeuge zur Telemetrie-Maskierung, allen voran Entwickler-Tools (44 Prozent) und virtuelle Maschinen (10 Prozent), haben im letzten Jahr massiv an Bedeutung gewonnen.

Ein entscheidender Faktor ist zudem die Verlagerung der Angriffe von der visuellen Ebene auf die Systemebene. Professionelle Agenten nutzen häufig SDK-Injektionen, um Datenströme direkt zu manipulieren, anstatt ein Bild physisch vor eine Kamera zu halten. Eine moderne Abwehr muss daher über die reine Pixel-Analyse hinausgehen und die Integrität des gesamten Datenpfads sowie die Hardware-Telemetrie des Geräts verifizieren.

Verteidigungsstrategien für deutsche Unternehmen

Angesichts dieser Entwicklung müssen Unternehmen von statischen Prüfpunkten zu einer kontinuierlichen Identitätsversicherung übergehen. Ein bloßer Scan des Personalausweises beim Onboarding reicht nicht mehr aus, wenn der gesamte Prozess kurz darauf von einem autonomen Agenten übernommen werden kann.

Ein effektives Schutzschild gegen AI Fraud Agents erfordert einen mehrschichtigen Ansatz:

  • Verhaltensbasierte KI: Da Dokumente und Biometrie perfekt gefälscht werden können, rückt das Verhalten in den Fokus. Algorithmen müssen analysieren, wie ein Nutzer durch eine App navigiert, wie schnell Formulare ausgefüllt werden und ob die Interaktionsmuster konsistent zu einem menschlichen Profil passen.
  • Multi-modale Verifizierung: Die Kombination von visuellen Signalen (Hauttextur, Mikromimik), akustischen Parametern (Stimmkadenz) und Geräte-Telemetrie (Kamera-Attestierung) erhöht die Hürde für KI-Agenten drastisch. Einen Kanal zu manipulieren, ist machbar. Alle drei konsistent und synchron zu fälschen, ist technisch weitaus komplexer.
  • Know Your Agent (KYA) und Human Binding: Ein neuer Ansatz zur Absicherung autonomer Workflows ist das „Human Binding“. Hierbei wird jede automatisierte Aktion explizit an eine verifizierte menschliche Identität gebunden. In risikoreichen Szenarien löst das System eine gezielte Liveness-Prüfung aus, um sicherzustellen, dass ein realer Mensch die Handlung des Agenten autorisiert hat.
  • Struktur-bewusste Sprachmodelle: Um KI-generierte Dokumentenfälschungen zu erkennen, setzen Anbieter vermehrt Modelle ein, die logische Konsistenzen innerhalb von Dokumenten prüfen, wie etwa ob MRZ-Prüfsummen korrekt sind oder ob die Ausstellungsbehörde zum regionalen Datumsformat passt.

Die Zukunft der digitalen Identität

KI-Agenten werden zunehmend nicht nur für kriminelle Zwecke, sondern auch als legitime Assistenten im Alltag Einzug erhalten – etwa für automatisierte Buchungen oder Einkäufe. Das erschwert die Abwehr zusätzlich, da Systeme künftig zwischen gutartiger und bösartiger Automatisierung unterscheiden müssen.

In einer aufstrebenden „Agent-Economy“ wandelt sich die Identitätsprüfung zur Delegationsprüfung. Das Ziel ist die sogenannte „Human Accountability“: Jede automatisierte Aktion einer KI muss technisch zweifelsfrei auf den autorisierten Willen eines verifizierten Menschen zurückgeführt werden können. Identitätsschutz bedeutet künftig also nicht mehr nur, den Nutzer beim Login zu erkennen, sondern sicherzustellen, dass jede KI-Handlung in einer rechtssicheren Kette an diese menschliche Identität gebunden bleibt.

Für Unternehmen in Deutschland bedeutet das, dass Compliance und Betrugsprävention nicht länger als getrennte Silos betrachtet werden dürfen. Der Übergang zu einem „Unified Risk Intelligence“-Modell, das KI nutzt, um KI zu erkennen, wird zur operativen Notwendigkeit. Wer weiterhin auf rein dokumentenbasierte Prüfungen setzt, lässt die Tür für die nächste Welle der autonomen Kriminalität weit offen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Artikelfiles und Artikellinks

(ID:50799906)