KI-Agenten greifen auf Live-Daten zu, lösen Workflows aus und treffen eigenständig Entscheidungen. Damit werden sie zu neuen, oft schwer durchschaubaren Identitäten im Netzwerk. Wer diese Systeme produktiv einsetzen will, braucht klare Grenzen für Berechtigungen, Integrationen und Governance – und weiterhin einen Menschen im Loop.
Die Autorin: Shobana Sruthi M ist Enterprise Analyst bei ManageEngine.
(Bild: ManageEngine)
KI-Agenten stellen die nächste Entwicklungsstufe von Künstlicher Intelligenz (KI) dar. Im Gegensatz zu bisherigen Sprachmodellen auf KI-Basis, die zum Großteil mithilfe von statischen Datensätzen trainiert wurden, können KI-Agenten autonom recherchieren, Schlussfolgerungen aus dem Recherchierten ziehen und Aufgaben ausführen. Dafür rufen sie Daten in Echtzeit ab, initiieren automatisierte Workflows und treffen kontextbasierte Entscheidungen. Diese Weiterentwicklung von Wissen zu Handeln bietet ungeahntes Potenzial, bringt aber auch neue und komplexe Risiken im Kontext der Unternehmenssicherheit mit sich.
Das Weltwirtschaftsforum teilt diese Einschätzung, warnt jedoch gleichzeitig davor, dass der Anstieg von nicht-menschlichen digitalen Identitäten in Unternehmensnetzwerken in vielen Fällen klassische Zugriffskontrollmechanismen untergräbt und so Schwachstellen schafft, die für Angreifer attraktiv sind.
Die meisten Schwachstellen liegen jedoch nicht in den KI-Modellen selbst, sondern in der Art und Weise, wie Menschen diese Systeme konfigurieren, integrieren und Berechtigungen für sie vergeben. Agenten mit zu weitreichenden Berechtigungen, APIs mit zu vielen Zugriffsrechten und nicht ausreichend überwachte Browsing-Privilegien können dazu führen, dass unbeabsichtigt sensible Daten offengelegt oder unsichere Aktionen ausgelöst werden. Ältere Authentifizierungs-Frameworks sind üblicherweise nicht für Interaktionen zwischen mehreren KI-Agenten oder zwischen KI-Agenten und Daten ausgelegt, weshalb es adaptive, kontextbezogene Sicherheitsstandards wie ISO 42001 braucht.
Design mit Fokus auf bewusster Autonomie
Unternehmen müssen sich heute nicht mehr die Frage stellen, ob sie für eine Aufgabe einen KI-Agenten nutzen können, sondern ob sie es sollten. Nicht jeder Prozess benötigt Autonomie, denn viele Prozesse sind regelbasiert, wiederholbar und überprüfbar – und lassen sich deshalb effektiver durch Automatisierung abbilden. KI-Agenten eignen sich hingegen besser für dynamische Umgebungen, in denen sich der Kontext kontinuierlich ändert.
KI-Agenten sinn- und verantwortungsvoll einzusetzen, erfordert deshalb Umsicht, klare Ziele und ein sicheres Fundament. Letzteres muss nach dem Prinzip der geringst möglichen Privilegien aufgebaut sein: Ein KI-Agent sollte nur die Zugriffsrechte erhalten, die er tatsächlich benötigt und nur so lange, wie er sie benötigt, um eine Aufgabe auszuführen. Jede Berechtigung sollte nur für einen spezifischen, vorher definierten Zweck vergeben werden, überprüfbar bleiben und automatisch verfallen, wenn sie nicht länger genutzt wird.
Ist dies nicht der Fall, können KI-Agenten im Laufe der Zeit zu viele Berechtigungen und Zugriffsrechte anhäufen. Regelmäßige, automatisierte Überprüfungen der an KI-Agenten vergebenen Privilegien in Kombination mit Verhaltensanalysen, die Anomalien wie unerwartete API-Aufrufe oder Dateiänderungen erkennen, können dazu beitragen, dieses Risiko zu reduzieren.
Zusätzlich dazu sollten auch die Integrationen der KI-Agenten gesichert werden. Jede Verbindung zu einer Datenbank, einem Browser oder einer externen API sollte authentifiziert, limitiert und regelmäßig überprüft werden. Agenten mit Browsing-Fähigkeiten müssen zudem in isolierten Umgebungen arbeiten, die sowohl Eingabeprüfungen als auch Zero-Trust-Validierung unterstützt, um Prompt Injection und die Ausführung schädlicher Skripte zu verhindern.
Governance für Live-Daten
Im Gegensatz zu statischen Modellen interagieren KI-Agenten mit Live-Daten, die sich kontinuierlich ändern. Dieses ermöglicht die Möglichkeit einer Echtzeit-Compliance, bei der Maßnahmen wie das Löschen und Anonymisieren von Daten dynamisch an Datenschutzanforderungen wie die DSGVO angepasst werden können. Eine solche Flexibilität ist jedoch nur dann sinnvoll, wenn gleichzeitig ein ähnlicher Grad an Nachverfolgbarkeit gewährleistet werden kann. Jede Dateninteraktion sollte überwacht, protokolliert und dokumentiert werden. Zudem muss in einer solchen Umgebung auch das eingesetzte Governance-Modell kontinuierlich angepasst werden und sich mit jeder neuen Dateninteraktion und jedem neu auftretenden Risiko weiterentwickeln.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Den menschlichen Nutzer mitdenken
Auch wenn Unternehmen KI-Agenten immer umfassender in ihre Prozesse integrieren, bleibt eine Überprüfung der Agenten durch Menschen unverzichtbar. Automatisierung durch KI-Agenten bietet zwar Skalierbarkeit, Geschwindigkeit und Konsistenz, aber bei unklaren oder bisher nicht vorgekommenen Szenarien liefern menschliche Analysten das entscheidende ethische und kritische Urteilsvermögen sowie das Kontextwissen, das KI-Agenten nicht nachbilden können.
Die resilientesten Netzwerkarchitekturen kombinieren deshalb automatisierte Überprüfungen zur Gewährleistung von Konsistenz stets mit Überprüfungen durch Menschen, die den notwendigen Grad an Urteilsvermögen mitbringen. Diese Kombination sorgt dafür, dass ein System nicht nur autonom, sondern auch nachvollziehbar arbeitet.
Ohne klare Rahmenbedingungen für Verantwortlichkeiten besteht jedoch zudem immer die Gefahr, dass durch Automatisierung Maßnahmen ohne die dafür notwendige strategische Abstimmung implementiert und vorangetrieben werden. Deshalb braucht es für fundierte Entscheidungsfindungsprozesse und umfassende Sicherheit nach wie vor eine Human-in-the-Loop-Governance.
Den Kurs festlegen
KI-Agenten sind auf dem Weg, ein zentraler Bestandteil der Unternehmensinfrastruktur zu werden. Ihr tatsächliches Potenzial hängt jedoch davon ab, wie verantwortungsbewusst sie weiterentwickelt und eingesetzt werden. Damit KI-Agenten eine Zukunft haben, braucht es bewusste Autonomie, die Integration von identitätsbasierten Sicherheitsmaßnahmen und Governance, die mit den Fähigkeiten der KI-Agenten Schritt hält. Oder anders ausgedrückt: Der Erfolg eines KI-Agenten sollte in Zukunft nicht daran gemessen werden, wie viel er leisten kann, sondern daran, wie sicher, nachprüfbar und zuverlässig er innerhalb der für ihn festgelegten Parameter agiert.