Für viele Cybersicherheitsexperten gilt das Jahr 2024 als Wendepunkt im digitalen Betrug. Durch Fraud-as-a-Service-Plattformen und fertige Toolkits sank die Einstiegshürde für Identitätskriminalität massiv. Doch während die schiere Masse an Angriffsversuchen weltweit weiterhin Millionen erreicht, findet aktuell eine weitaus gefährlichere Transformation von simplen, massenhaften Attacken zu hochgradig professionellen, KI-gesteuerten Operationen statt.
Der Autor: Eugeny Malyutin ist Head of LLM bei Sumsub
(Bild: Sumsub)
Der aktuelle „Identity Fraud Report 2025-2026“ von Sumsub warnt in diesem Zusammenhang vor dem Aufstieg sogenannter AI Fraud Agents, die dieses Jahr prägen könnten.
Was sind AI Fraud Agents?
Bisher fungierte Künstliche Intelligenz (KI) im Arsenal von Betrügern primär als Assistenzwerkzeug, etwa um Dokumente zu manipulieren, Deepfakes für Liveness-Checks zu erstellen oder Phishing-E-Mails zu formulieren. AI Fraud Agents gehen jedoch deutlich weiter. Es handelt sich um autonome Softwaresysteme, die generative Inhalte mit komplexem Scripting und Verhaltensmimikry kombinieren, um vollständige Verifizierungsprozesse eigenständig von Anfang bis Ende durchzuführen.
Technisch gesehen stützen sich diese Agenten auf drei Säulen: Generative KI zur Erstellung von Identitätsmerkmalen, Automatisierungs-Frameworks zur Interaktion mit Schnittstellen und Reinforcement Learning. Letzteres ist der entscheidende Faktor für die Gefährlichkeit dieser Systeme. Ein AI Fraud Agent agiert adaptiv. Er lernt aus gescheiterten Versuchen, erkennt, an welchem Punkt eine Sicherheitsbarriere den Prozess gestoppt hat, und passt seine Strategie für den nächsten Versuch in Echtzeit an. Damit verwandelt sich Betrug von einem unkoordinierten Ausprobieren in einen dynamischen, skalierbaren Prozess.
Die Anatomie des Sophistication Shift
Im Vergleich zum Vorjahr verzeichnete die Branche im letzten Jahr einen Anstieg von 180 Prozent bei sogenannten hochentwickelten Betrugsfällen. Während amateurhafte Versuche wie schlecht bearbeitete Ausweiskopien durch moderne Verifizierungssysteme zunehmend effektiv herausgefiltert werden, konzentrieren sich Kriminelle nun auf weniger, aber dafür professionellere und effektivere Angriffe.
AI Fraud Agents unterscheiden sich in wesentlichen Punkten von klassischen Betrugsmethoden:
1. Synthetische Identitäten in Clustern: Anstatt lediglich gestohlene Daten zu verwenden, generieren Agenten komplette synthetische Identitäten, die aus einer Mischung von realen und erfundenen Informationen bestehen. Diese Profile werden oft in vernetzten Clustern angelegt, die untereinander interagieren, um Glaubwürdigkeit vorzutäuschen.
2. Echtzeit-Interaktion: Moderne Liveness-Prüfungen verlangen oft spezifische Reaktionen des Nutzers. AI Fraud Agents sind in der Lage, nicht nur starre Videos abzuspielen, sondern interaktive Avatare zu steuern, die auf Aufforderungen während eines Verifizierungsprozesses reagieren können.
3. Angriff auf den Kontext, nicht nur den Inhalt: Klassische Abwehrsysteme prüfen das Dokument oder das Gesicht. AI Fraud Agents zielen zunehmend auf die Datenpipeline selbst ab. Durch Telemetrie-Manipulation, SDK-Manipulation oder die Injektion synthetischer Frames direkt in den Kamera-Stream versuchen sie, das System glauben zu lassen, eine authentische Sitzung finde statt, während im Hintergrund ein Bot agiert.
Warum herkömmliche Detektion an ihre Grenzen stößt
Die Schwierigkeit bei der Identifizierung dieser Agenten liegt in ihrer Fähigkeit, menschliches Verhalten nahezu perfekt zu imitieren. Während frühere Bots durch unnatürliche Geschwindigkeit oder repetitive Muster auffielen, können AI Fraud Agents menschliche Tipp-Rhythmen, Mausbewegungen und sogar Verzögerungen simulieren.
Zudem nutzen Angreifer zunehmend Techniken zur Maskierung der Umgebung. Emulator-Farmen (Simulierung vieler verschiedener Geräte) und virtuelle Maschinen verschleiern Geräte-Fingerabdrücke und Standortsignale, die normalerweise wiederholte Betrugsversuche entlarven würden. Werkzeuge zur Telemetrie-Maskierung, allen voran Entwickler-Tools (44 Prozent) und virtuelle Maschinen (10 Prozent), haben im letzten Jahr massiv an Bedeutung gewonnen.
Ein entscheidender Faktor ist zudem die Verlagerung der Angriffe von der visuellen Ebene auf die Systemebene. Professionelle Agenten nutzen häufig SDK-Injektionen, um Datenströme direkt zu manipulieren, anstatt ein Bild physisch vor eine Kamera zu halten. Eine moderne Abwehr muss daher über die reine Pixel-Analyse hinausgehen und die Integrität des gesamten Datenpfads sowie die Hardware-Telemetrie des Geräts verifizieren.
Verteidigungsstrategien für deutsche Unternehmen
Angesichts dieser Entwicklung müssen Unternehmen von statischen Prüfpunkten zu einer kontinuierlichen Identitätsversicherung übergehen. Ein bloßer Scan des Personalausweises beim Onboarding reicht nicht mehr aus, wenn der gesamte Prozess kurz darauf von einem autonomen Agenten übernommen werden kann.
Ein effektives Schutzschild gegen AI Fraud Agents erfordert einen mehrschichtigen Ansatz:
Verhaltensbasierte KI: Da Dokumente und Biometrie perfekt gefälscht werden können, rückt das Verhalten in den Fokus. Algorithmen müssen analysieren, wie ein Nutzer durch eine App navigiert, wie schnell Formulare ausgefüllt werden und ob die Interaktionsmuster konsistent zu einem menschlichen Profil passen.
Multi-modale Verifizierung: Die Kombination von visuellen Signalen (Hauttextur, Mikromimik), akustischen Parametern (Stimmkadenz) und Geräte-Telemetrie (Kamera-Attestierung) erhöht die Hürde für KI-Agenten drastisch. Einen Kanal zu manipulieren, ist machbar. Alle drei konsistent und synchron zu fälschen, ist technisch weitaus komplexer.
Know Your Agent (KYA) und Human Binding: Ein neuer Ansatz zur Absicherung autonomer Workflows ist das „Human Binding“. Hierbei wird jede automatisierte Aktion explizit an eine verifizierte menschliche Identität gebunden. In risikoreichen Szenarien löst das System eine gezielte Liveness-Prüfung aus, um sicherzustellen, dass ein realer Mensch die Handlung des Agenten autorisiert hat.
Struktur-bewusste Sprachmodelle: Um KI-generierte Dokumentenfälschungen zu erkennen, setzen Anbieter vermehrt Modelle ein, die logische Konsistenzen innerhalb von Dokumenten prüfen, wie etwa ob MRZ-Prüfsummen korrekt sind oder ob die Ausstellungsbehörde zum regionalen Datumsformat passt.
Die Zukunft der digitalen Identität
KI-Agenten werden zunehmend nicht nur für kriminelle Zwecke, sondern auch als legitime Assistenten im Alltag Einzug erhalten – etwa für automatisierte Buchungen oder Einkäufe. Das erschwert die Abwehr zusätzlich, da Systeme künftig zwischen gutartiger und bösartiger Automatisierung unterscheiden müssen.
In einer aufstrebenden „Agent-Economy“ wandelt sich die Identitätsprüfung zur Delegationsprüfung. Das Ziel ist die sogenannte „Human Accountability“: Jede automatisierte Aktion einer KI muss technisch zweifelsfrei auf den autorisierten Willen eines verifizierten Menschen zurückgeführt werden können. Identitätsschutz bedeutet künftig also nicht mehr nur, den Nutzer beim Login zu erkennen, sondern sicherzustellen, dass jede KI-Handlung in einer rechtssicheren Kette an diese menschliche Identität gebunden bleibt.
Für Unternehmen in Deutschland bedeutet das, dass Compliance und Betrugsprävention nicht länger als getrennte Silos betrachtet werden dürfen. Der Übergang zu einem „Unified Risk Intelligence“-Modell, das KI nutzt, um KI zu erkennen, wird zur operativen Notwendigkeit. Wer weiterhin auf rein dokumentenbasierte Prüfungen setzt, lässt die Tür für die nächste Welle der autonomen Kriminalität weit offen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.