Kommentar von Trevor Dearing, Illumio Agentic AI – neues Sicherheitsrisiko und Chance für die Cybersicherheit

Von Trevor Dearing 6 min Lesedauer

Anbieter zum Thema

Die nächste Stufe der Künstlichen Intelligenz (KI, engl. AI) ist längst keine Zukunftsvision mehr, sondern im Begriff, Realität zu werden: Agentic AI – autonome KI-Systeme, die eigenständig Entscheidungen treffen und selbstständig handeln.

Der Autor: Trevor Dearing ist Director of Critical Infrastructure Solutions bei Illumio(Bild:  Illumio)
Der Autor: Trevor Dearing ist Director of Critical Infrastructure Solutions bei Illumio
(Bild: Illumio)

Im Gegensatz zu früheren KI-Lösungen, die auf direkte Befehle angewiesen sind, agieren Agenten proaktiv. Sie analysieren Daten, erkennen Muster, leiten daraus Ziele und Strategien ab und führen Aufgaben aus, ohne dabei ständig auf menschliche Eingaben angewiesen zu sein. Dabei lernen sie fortlaufend aus den Ergebnissen ihres Handelns und passen sich dynamisch an neue Bedingungen an.

Die Vorteile liegen auf der Hand: KI-Agenten arbeiten rund um die Uhr nach ihren Vorgaben und lassen sich in großer Zahl parallel einsetzen. Prozesse, die bislang durch die Grenzen menschlicher Fähigkeit und Kapazitäten gebremst wurden, werden neu entfesselt. Bereits heute werden Agenten in verschiedenen Bereichen eingesetzt:

  • Im IT-Service klassifizieren und bearbeiten sie Support-Tickets automatisiert.
  • In der Produktion analysieren sie Sensordaten und lösen eigenständig vorausschauende Wartung (Predictive Maintenance) aus.
  • In der Logistik steuern agentenbasierte Systeme Bestände, Routen und Kapazitäten und optimieren so ganze Lieferketten.
  • In der realen Welt übernehmen Agenten in autonomen Fahrzeugen zunehmend die Navigation durch immer komplexere Verkehrssituationen, lernen dabei kontinuierlich dazu und verbessern ihr Verhalten mit jeder Fahrt.

Die Einsatzmöglichkeiten von KI-Agenten scheinen grenzenlos – doch mit wachsender Verbreitung und Autonomie steigen auch die Risiken. Was auf den ersten Blick wie ein technologischer Durchbruch wirkt, eröffnet zugleich neue sicherheitsrelevante Herausforderungen. Denn je mehr Entscheidungsfreiheit und Systemzugriff autonome Agenten erhalten, desto größer wird die potenzielle Angriffsfläche. Agentic AI eröffnet zweifellos neue Möglichkeiten – verändert jedoch gleichzeitig das Risikoprofil digitaler Infrastrukturen. Wer das Potenzial dieser Technologie nutzen will, muss ihren Einsatz von Anfang an mit dem richtigen Sicherheitsverständnis begleiten.

Autonomie verändert die Risikodynamik

Traditionelle Sicherheitsmodelle sind auf menschliches Verhalten ausgerichtet. Sie gehen davon aus, dass Nutzer Entscheidungen hinterfragen, Auffälligkeiten erkennen und im Zweifel vom Handeln absehen. Selbst bei Fehlern – etwa durch Phishing oder Fehlkonfigurationen – dienen menschliche Eigenschaften wie Kontextbewusstsein, Intuition oder Skepsis oft als eine zusätzliche Schutzinstanz.

Autonome Systeme funktionieren grundlegend anders. Ein Agent verarbeitet Eingaben, folgt definierten Regeln und leitet daraus Handlungen ab. Er bewertet jedoch nicht die Angemessenheit eines Befehls, erkennt keine Täuschung und hinterfragt keine Absichten. Wird sein Entscheidungsmodell kompromittiert, etwa durch manipulierte Trainingsdaten (Data Poisoning) oder bösartige Eingaben, führt er auch dann Aufgaben aus, wenn diese formal korrekt, aber operativ schädlich sind. Die Auswirkungen können von der Störung geschäftskritischer Prozesse bis hin zum Löschen sensibler Daten reichen. Besonders riskant ist dabei, wie Agenten dies tun: präzise und in Sekundenschnelle.

Diese Risiken verstärken sich bei Agenten, die auf sogenannten Small Language Models (SLMs) basieren. Diese Modelle sind für eng umrissene Aufgabenbereiche optimiert – etwa für interne Kommunikation, Systemabfragen oder Prozessautomatisierung. Ihre Spezialisierung macht sie hocheffizient, aber auch anfälliger für Manipulationen. Aufgrund ihrer begrenzten Generalisierungsfähigkeit und kleineren Datensätze reagieren sie besonders empfindlich auf fehlerhafte oder manipulierte Eingaben. Schon kleine Veränderungen können ihr Verhalten nachhaltig beeinflussen – vergleichbar mit einem Tropfen Farbe, der ein Glas Wasser sofort sichtbar verfärbt, während er in einem Ozean (in dieser Analogie ein LLM) nahezu wirkungslos bleibt.

Diese Herausforderung wird durch die zunehmende Anzahl solcher Systeme weiter verschärft. Während Organisationen heute einige Tausend Benutzerkonten verwalten, können es in Zukunft zehntausende oder gar hunderttausende KI-Agenten sein – mit jeweils spezifischen Aufgaben, Zugriffsrechten und Interaktionen. Herkömmliche Sicherheitsmodelle sind weder auf diese Größenordnung noch auf die damit verbundene Komplexität und Dynamik ausgelegt.

Effizienz als Schwachstelle

Gerade jene Eigenschaften, die Agentic AI so leistungsfähig machen – Automatisierung, Geschwindigkeit und Skalierbarkeit – werden zum Risiko, wenn sie kompromittiert werden. Ein menschlicher Angreifer benötigt oft Wochen oder Monate, um sich unbemerkt lateral durch ein Netzwerk zu bewegen, Zugriffe auszuweiten und Schaden anzurichten. Ein Agent hingegen besitzt bereits alle Rechte, die für seine Aufgabe erforderlich sind – und wird sie weiterhin nutzen, auch wenn er kompromittiert ist.

Besonders in dynamischen IT-Umgebungen wie hybriden Multi-Cloud-Architekturen, wo Sichtbarkeit ohnehin eingeschränkt ist und komplexe Abhängigkeiten bestehen, kann dies schwerwiegende Folgen haben. Kompromittierte Agenten können hier Auswirkungen entfalten, die schwer nachvollziehbar sind – insbesondere, wenn Übergänge zwischen Systemen unzureichend kontrolliert werden. Seitliche Bewegungen (Lateral Movement) bleiben oft unentdeckt, wenn sie technisch plausibel erscheinen. Die Grenze zwischen Effizienz und Verwundbarkeit ist hier besonders schmal. Die Herausforderung besteht daher nicht darin, einzelne Agenten abzusichern, sondern die IT-Sicherheit so weiterzuentwickeln, dass auch ein gesamtes Ökosystem autonomer Instanzen abgedeckt und Fehlverhalten lokal begrenzt bleibt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Zero Trust als strategische Grundlage

Die vielleicht größte Gefahr beim Einsatz von Agentic AI liegt in der Annahme, dass autonome Systeme irgendwann moralisches Urteilsvermögen entwickeln und „gute“ Entscheidungen treffen. Diese Erwartung ist falsch. Agenten handeln nicht bewusst; sie sind deterministisch – sie führen aus, was technisch erlaubt ist, ohne ethische Abwägung oder Bewusstsein für Absicht und Konsequenz. Die entscheidende Erkenntnis lautet daher: Der Einsatz von Agentic AI darf nicht auf Vertrauen basieren. Sicherheit entsteht nicht durch Vertrauen in „gute Absichten“, sondern durch systematische Kontrolle und Überwachung. Autonomie darf nicht mit Vertrauenswürdigkeit verwechselt werden.

Ein zukunftsfähiger Sicherheitsansatz muss davon ausgehen, dass jede Instanz – menschlich oder maschinell – kompromittiert werden kann. Statt auf implizites Vertrauen zu setzen, braucht es ein Modell, das jede Aktion, jede Verbindung und jede Berechtigung überprüft. Eine Zero-Trust-Strategie bietet hierfür den passenden strategischen Rahmen.

Zero Trust beruht auf dem Prinzip „never trust, always verify“. Jeder Zugriff, auch innerhalb interner Netzwerke, muss explizit geprüft und autorisiert werden. Für Agentic AI bedeutet das: Jeder Agent wird auf ein klar definiertes Wirkungsfeld, sein Segment, beschränkt. Kommunikationsbeziehungen, Datenflüsse und Systemübergänge werden gezielt limitiert und kontinuierlich überwacht.

Kommt es dennoch zu einer Kompromittierung, bleibt die Auswirkung auf das jeweilige Segment begrenzt. Die Fähigkeit, sich weiter im System zu bewegen oder andere Instanzen zu beeinflussen, wird von Beginn an eingeschränkt – das ist der Unterschied zwischen einem lokal begrenzten Vorfall und einer systemweiten Eskalation.

Segmentierung als Architekturprinzip

Damit eine Zero-Trust-Strategie in der Praxis wirksam wird, muss sie in diese umgesetzt werden. Ein wichtiges Element ist die Mikrosegmentierung: Sie beschränkt den Handlungsspielraum jedes einzelnen Agenten auf das absolut Notwendige. Ein Agent, der beispielsweise Support-Tickets bearbeitet, hat keinen Zugriff auf Produktionssysteme oder Personaldaten.

Diese strikte Abgrenzung reduziert die Angriffsfläche und macht Abläufe nachvollziehbarer. Gerade in verteilten Infrastrukturen oder in Umgebungen mit häufig wechselnden Agenteninstanzen ist konsistente Segmentierung unerlässlich, um Risiken frühzeitig zu erkennen und einzudämmen.

Sichtbarkeit schaffen durch graphbasiertes Denken

Der Einsatz von KI-Agenten verändert die operative Struktur digitaler Systeme: Zahlreiche parallel arbeitende Agenten übernehmen spezialisierte Aufgaben und kommunizieren mit unterschiedlichen Systemkomponenten. Diese hohe Autonomie erhöht die Komplexität und erschwert die Nachverfolgbarkeit. Um Sicherheitsrisiken im Umgang mit Agentic AI wirksam zu erkennen und einzugrenzen, reicht die isolierte Analyse einzelner Ereignisse nicht aus.

Graphbasierte Lösungen schaffen hier Abhilfe. Sie erfassen nicht nur Aktivitäten, sondern auch die strukturellen Beziehungen zwischen Agenten, Systemen und Datenflüssen. Ein AI Security Graph zeigt, welche Agenten mit welchen Systemen verbunden sind, über welche Berechtigungen sie verfügen und wo kritische Abhängigkeiten entstehen. Seine besondere Stärke zeigt sich insbesondere dann, wenn Angreifer versuchen, kompromittierte Agenten für laterale Bewegungen im Netzwerk auszunutzen. AI Security Graphs helfen, sicherheitsrelevante Muster frühzeitig zu erkennen, Anomalien im Kontext einzuordnen und besonders exponierte Agenten gezielt abzusichern.

Fazit: Autonome Systeme sicher gestalten

Agentic AI erschließt Organisationen großes Potenzial. Doch dieselben Eigenschaften, die sie so leistungsfähig machen, machen sie auch anfällig für Missbrauch. Sicherheit darf in diesem Kontext kein nachträglicher Gedanke sein – sie muss von Anfang an integraler Bestandteil jeder KI-Strategie sein.

Mit Zero Trust als Sicherheitsstrategie, Mikrosegmentierung zur Umsetzung in die Praxis und graphbasierten Lösungen als analytische Grundlage lässt sich Agentic AI wirksam absichern – ohne Innovationsfähigkeit einzuschränken. Nur so können autonome Systeme ihr volles Potenzial entfalten, ohne zum Sicherheitsrisiko zu werden.

Artikelfiles und Artikellinks

(ID:50671374)