Aufbau sicherer, konformer und zuverlässiger Agentensysteme Die Zukunft von KI-Agenten sichern

Ein Gastbeitrag von Shobana Sruthi M 4 min Lesedauer

Anbieter zum Thema

KI-Agenten greifen auf Live-Daten zu, lösen Workflows aus und treffen eigenständig Entscheidungen. Damit werden sie zu neuen, oft schwer durchschaubaren Identitäten im Netzwerk. Wer diese Systeme produktiv einsetzen will, braucht klare Grenzen für Berechtigungen, Integrationen und Governance – und weiterhin einen Menschen im Loop.

Die Autorin: Shobana Sruthi M ist Enterprise Analyst bei ManageEngine.(Bild:  ManageEngine)
Die Autorin: Shobana Sruthi M ist Enterprise Analyst bei ManageEngine.
(Bild: ManageEngine)

KI-Agenten stellen die nächste Entwicklungsstufe von Künstlicher Intelligenz (KI) dar. Im Gegensatz zu bisherigen Sprachmodellen auf KI-Basis, die zum Großteil mithilfe von statischen Datensätzen trainiert wurden, können KI-Agenten autonom recherchieren, Schlussfolgerungen aus dem Recherchierten ziehen und Aufgaben ausführen. Dafür rufen sie Daten in Echtzeit ab, initiieren automatisierte Workflows und treffen kontextbasierte Entscheidungen. Diese Weiterentwicklung von Wissen zu Handeln bietet ungeahntes Potenzial, bringt aber auch neue und komplexe Risiken im Kontext der Unternehmenssicherheit mit sich.

Laut Gartner ist agentenbasierte KI einer der wichtigsten Technologietrends im Jahr 2025 und bis zum Jahr 2028 werden voraussichtlich 33 Prozent aller Unternehmensanwendungen in irgendeiner Form agentenbasierte Funktionen enthalten, im Vergleich zu weniger als einem Prozent im Jahr 2024.

Das Weltwirtschaftsforum teilt diese Einschätzung, warnt jedoch gleichzeitig davor, dass der Anstieg von nicht-menschlichen digitalen Identitäten in Unternehmensnetzwerken in vielen Fällen klassische Zugriffskontrollmechanismen untergräbt und so Schwachstellen schafft, die für Angreifer attraktiv sind.

Die meisten Schwachstellen liegen jedoch nicht in den KI-Modellen selbst, sondern in der Art und Weise, wie Menschen diese Systeme konfigurieren, integrieren und Berechtigungen für sie vergeben. Agenten mit zu weitreichenden Berechtigungen, APIs mit zu vielen Zugriffsrechten und nicht ausreichend überwachte Browsing-Privilegien können dazu führen, dass unbeabsichtigt sensible Daten offengelegt oder unsichere Aktionen ausgelöst werden. Ältere Authentifizierungs-Frameworks sind üblicherweise nicht für Interaktionen zwischen mehreren KI-Agenten oder zwischen KI-Agenten und Daten ausgelegt, weshalb es adaptive, kontextbezogene Sicherheitsstandards wie ISO 42001 braucht.

Design mit Fokus auf bewusster Autonomie

Unternehmen müssen sich heute nicht mehr die Frage stellen, ob sie für eine Aufgabe einen KI-Agenten nutzen können, sondern ob sie es sollten. Nicht jeder Prozess benötigt Autonomie, denn viele Prozesse sind regelbasiert, wiederholbar und überprüfbar – und lassen sich deshalb effektiver durch Automatisierung abbilden. KI-Agenten eignen sich hingegen besser für dynamische Umgebungen, in denen sich der Kontext kontinuierlich ändert.

KI-Agenten sinn- und verantwortungsvoll einzusetzen, erfordert deshalb Umsicht, klare Ziele und ein sicheres Fundament. Letzteres muss nach dem Prinzip der geringst möglichen Privilegien aufgebaut sein: Ein KI-Agent sollte nur die Zugriffsrechte erhalten, die er tatsächlich benötigt und nur so lange, wie er sie benötigt, um eine Aufgabe auszuführen. Jede Berechtigung sollte nur für einen spezifischen, vorher definierten Zweck vergeben werden, überprüfbar bleiben und automatisch verfallen, wenn sie nicht länger genutzt wird.

Ist dies nicht der Fall, können KI-Agenten im Laufe der Zeit zu viele Berechtigungen und Zugriffsrechte anhäufen. Regelmäßige, automatisierte Überprüfungen der an KI-Agenten vergebenen Privilegien in Kombination mit Verhaltensanalysen, die Anomalien wie unerwartete API-Aufrufe oder Dateiänderungen erkennen, können dazu beitragen, dieses Risiko zu reduzieren.

Zusätzlich dazu sollten auch die Integrationen der KI-Agenten gesichert werden. Jede Verbindung zu einer Datenbank, einem Browser oder einer externen API sollte authentifiziert, limitiert und regelmäßig überprüft werden. Agenten mit Browsing-Fähigkeiten müssen zudem in isolierten Umgebungen arbeiten, die sowohl Eingabeprüfungen als auch Zero-Trust-Validierung unterstützt, um Prompt Injection und die Ausführung schädlicher Skripte zu verhindern.

Governance für Live-Daten

Im Gegensatz zu statischen Modellen interagieren KI-Agenten mit Live-Daten, die sich kontinuierlich ändern. Dieses ermöglicht die Möglichkeit einer Echtzeit-Compliance, bei der Maßnahmen wie das Löschen und Anonymisieren von Daten dynamisch an Datenschutzanforderungen wie die DSGVO angepasst werden können. Eine solche Flexibilität ist jedoch nur dann sinnvoll, wenn gleichzeitig ein ähnlicher Grad an Nachverfolgbarkeit gewährleistet werden kann. Jede Dateninteraktion sollte überwacht, protokolliert und dokumentiert werden. Zudem muss in einer solchen Umgebung auch das eingesetzte Governance-Modell kontinuierlich angepasst werden und sich mit jeder neuen Dateninteraktion und jedem neu auftretenden Risiko weiterentwickeln.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Den menschlichen Nutzer mitdenken

Auch wenn Unternehmen KI-Agenten immer umfassender in ihre Prozesse integrieren, bleibt eine Überprüfung der Agenten durch Menschen unverzichtbar. Automatisierung durch KI-Agenten bietet zwar Skalierbarkeit, Geschwindigkeit und Konsistenz, aber bei unklaren oder bisher nicht vorgekommenen Szenarien liefern menschliche Analysten das entscheidende ethische und kritische Urteilsvermögen sowie das Kontextwissen, das KI-Agenten nicht nachbilden können.

Die resilientesten Netzwerkarchitekturen kombinieren deshalb automatisierte Überprüfungen zur Gewährleistung von Konsistenz stets mit Überprüfungen durch Menschen, die den notwendigen Grad an Urteilsvermögen mitbringen. Diese Kombination sorgt dafür, dass ein System nicht nur autonom, sondern auch nachvollziehbar arbeitet.

Ohne klare Rahmenbedingungen für Verantwortlichkeiten besteht jedoch zudem immer die Gefahr, dass durch Automatisierung Maßnahmen ohne die dafür notwendige strategische Abstimmung implementiert und vorangetrieben werden. Deshalb braucht es für fundierte Entscheidungsfindungsprozesse und umfassende Sicherheit nach wie vor eine Human-in-the-Loop-Governance.

Den Kurs festlegen

KI-Agenten sind auf dem Weg, ein zentraler Bestandteil der Unternehmensinfrastruktur zu werden. Ihr tatsächliches Potenzial hängt jedoch davon ab, wie verantwortungsbewusst sie weiterentwickelt und eingesetzt werden. Damit KI-Agenten eine Zukunft haben, braucht es bewusste Autonomie, die Integration von identitätsbasierten Sicherheitsmaßnahmen und Governance, die mit den Fähigkeiten der KI-Agenten Schritt hält. Oder anders ausgedrückt: Der Erfolg eines KI-Agenten sollte in Zukunft nicht daran gemessen werden, wie viel er leisten kann, sondern daran, wie sicher, nachprüfbar und zuverlässig er innerhalb der für ihn festgelegten Parameter agiert.

Artikelfiles und Artikellinks

(ID:50637016)