KI-Agenten treffen auf eine Infrastruktur, die nicht auf sie ausgelegt ist. Damit sie sich dort zurechtfinden können, müssen Sicherheitsarchitekturen überarbeitet werden.
Der Autor: Alexander Waldmann ist Vice President bei Applause
(Bild: Applause)
Die Entwicklung von KI-Agenten stellt Entwicklungs- und Testteams, wie auch IT-Sicherheitsabteilungen, vor völlig neue Herausforderungen. Während Menschen täglich CAPTCHA-Rätsel lösen oder auf Authentifizierungscodes per SMS warten, erweisen sich diese bewährten Sicherheitsmaßnahmen für autonome KI-Systeme als Hürden.
Agentische KI zielt darauf ab, Aufgaben vollständig autonom zu erledigen, also ohne dass menschliche Intervention notwendig ist. Diese Entwicklung trifft auf die Sicherheitsarchitektur von Unternehmen, die darauf ausgelegt ist, automatisierte Eingaben zu erkennen und abzuwehren. Diese Diskrepanz zwischen dem Funktionsprinzip von KI-Agenten und etablierten Sicherheitsprotokollen ist ein grundlegendes Problem.
Eine der größten Hürden stellen Authentifizierungsanforderungen dar. Log-in-Credentials, Multi-Faktor-Authentifizierung und biometrische Verfahren setzen voraus, dass ein Mensch die Identität bestätigt. KI-Agenten können solche Aufgaben nur bewältigen, wenn sie explizit autorisiert wurden oder über sichere Anmeldedaten verfügen.
CAPTCHA-Systeme und Bot-Erkennungsverfahren wurden gezielt entwickelt, um Automatisierung zu verhindern. Diese Mechanismen konfrontieren Nutzer mit Bildauswahl-Aufgaben oder Rätseln, die ausschließlich Menschen lösen können sollen. Für KI-Agenten bedeuten sie Blockaden, es sei denn, die Systeme wurden explizit für sie angepasst oder freigegeben.
Dann gibt es noch Rate Limiting und Drosselungsmaßnahmen, die die Anzahl der Anfragen pro Nutzer oder IP-Adresse innerhalb bestimmter Zeiträume begrenzen. KI-Agenten, die für Planung und Ausführung mehrere API-Aufrufe benötigen, laufen Gefahr, gedrosselt oder temporär gesperrt zu werden.
Jenseits der Authentifizierungsbarrieren entstehen weitere Hindernisse durch die Berechtigungs- und Zugriffskontrollen moderner IT-Systeme. Etwa wenn Role-based Access Control (RBAC) explizite Autorisierung für den Zugriff auf Daten und Funktionen benötigen. Selbst wenn ein Agent über gültige Anmeldedaten verfügt, fehlen ihm möglicherweise Lese- oder Schreibberechtigungen für bestimmte Workflows.
Parallel dazu verschärfen Content Security Policies (CSP) und Cross-Origin Resource Sharing (CORS) die Situation erheblich, indem sie strikt beschränken, von welchen Quellen Scripts Inhalte laden dürfen und welche Domains auf APIs zugreifen können. Diese Web-Sicherheitsstandards, die ursprünglich gegen bösartige Cross-Site-Angriffe entwickelt wurden, blockieren konsequent web-basierte KI-Agenten oder Plug-ins, sobald Cross-Origin-Anfragen nicht explizit in Whitelists erfasst sind.
Zusätzlich verstärken moderne Audit-Logging und Anomalie-Erkennungssysteme das Problem, indem sie kontinuierlich alle Aktivitäten protokollieren und ungewöhnliche Verhaltensmuster automatisch als potenzielle Automatisierung oder Missbrauch klassifizieren. Die Ironie liegt darin, dass selbst wohlmeinende KI-Agenten durch ihre naturgemäß systematischen Handlungsmuster unweigerlich Sicherheitsalarme auslösen, was zum sofortigen Stopp ihrer Aufgaben führen kann.
Unterbrechungen verhindern Autonomie
Die Unterbrechung der autonomen Funktionsfähigkeit von KI-Agenten untergräbt das Kernversprechen von Agentic AI, dass die Fähigkeit zur selbstständigen, zielgerichteten Arbeit durch Planung, Speicher, Tool-Nutzung und Feedback-Schleifen besteht.
Menschliche Eingriffe für Multi-Faktor-Authentifizierung, CAPTCHA-Lösungen oder Task-Genehmigungen unterbrechen diesen Zyklus. Das System muss auf menschliche Eingaben warten, bevor es fortfahren kann. Ein nahtloser, selbstjustierender Workflow wird zu einer Reihe von Start-Stopp-Aufgaben degradiert.
Diese scheinbar harmlosen Unterbrechungen haben weitreichende Konsequenzen. KI-Agenten können Arbeitsgedächtnis oder Ausführungskontext verlieren, besonders wenn Sessions ablaufen oder Tools zurückgesetzt werden. In der Folge müssen KI-Agenten möglicherweise Tasks von vorn beginnen oder die Aufgabe womöglich komplett abbrechen.
Sicherheitsarchitekturen müssen sich anpassen
Um KI-Agenten sinnvoll nutzen zu können, benötigen Systeme sichere Mechanismen für Vertrauensdelegation und Kontrolle. KI-Agenten müssen innerhalb abgegrenzter, beobachtbarer Umgebungen selbstständig agieren können. Das Design solcher Systeme erfordert eine Balance zwischen KI-Agenten-Autonomie und Enterprise-Level-Kontrolle, Observability und Sicherheit.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Unternehmen stehen vor der Aufgabe, ihre Sicherheitsansätze zu überdenken. Sie müssen sowohl interne Anwendungsfälle als auch die Unterstützung von Kunden und externen Stakeholdern berücksichtigen, die KI-Agenten zur Interaktion mit Websites und Anwendungen nutzen.
Erforderliche Anpassungen umfassen die Definition klarer Grenzen, die Bereitstellung temporärer, eingeschränkter Zugriffe und die Einrichtung von Human-in-the-Loop-Triggern. Zusätzlich müssen Leitplanken implementiert werden, die Runtime-Sicherheitsmechanismen in Schichten organisieren.
Praktische Lösungsansätze für Unternehmen
Die Implementierung KI-Agenten-freundlicher Sicherheitsarchitekturen erfordert einen mehrstufigen Ansatz. Organisationen sollten zunächst KI-Agenten-spezifische Authentifizierungsmethoden entwickeln, die API-Keys oder Service-Accounts für definierte Aufgabenbereiche nutzen.
Whitelist-basierte Systeme können vertrauenswürdigen KI-Agenten den Zugang ermöglichen, während unbekannte Systeme weiterhin blockiert werden. Progressive Vertrauensmodelle erlauben es KI-Agenten, durch erfolgreiche Task-Completion schrittweise erweiterte Berechtigungen zu erlangen.
Auch Sandbox-Umgebungen bieten sichere Testbereiche für KI-Agenten-Aktivitäten, ohne Produktionssysteme zu gefährden. Monitoring- und Alerting-Systeme müssen angepasst werden, um zwischen legitimen KI-Agenten-Aktivitäten und potenziellem Missbrauch zu unterscheiden.
Schließlich helfen zeitbasierte Zugriffskontrollen, um KI-Agenten während definierter Zeitfenster erweiterte Berechtigungen zu gewähren und diese automatisch zu widerrufen. Session-Management-Systeme benötigen Mechanismen für langlebige KI-Agenten-Sessions mit angemessenen Sicherheitsgarantien.
Zukunft der KI-Agenten-Sicherheit
Die Integration von KI-Agenten in bestehende IT-Infrastrukturen erfordert einen Paradigmenwechsel in der Sicherheitsarchitektur. Traditionelle, menschenzentrierte Sicherheitskonzepte müssen erweitert werden, um autonome Systeme zu unterstützen, ohne dabei Sicherheitsstandards zu kompromittieren.
Software-Entwicklung und Testing bleiben weiterhin auf menschliche Beteiligung angewiesen. Die Herausforderung liegt darin, sichere, vertrauenswürdige Anwendungen zu liefern, ohne sie für Menschen auszubremsen. Diese Balance zwischen Autonomie und Kontrolle wird entscheidend für den erfolgreichen Einsatz von Agentic AI in Unternehmensumgebungen. Ein Partner mit KI-Expertise und Zugang zu Testern, die die Projektanforderungen erfüllen, kann langfristig Zeit sparen.
Die Zukunft gehört hybriden Sicherheitsmodellen, die sowohl menschliche als auch maschinelle Akteure nahtlos unterstützen. Organisationen, die diese Transformation proaktiv angehen, werden einen Wettbewerbsvorteil bei der Nutzung autonomer KI-Systeme erlangen.