Autonome KI-Agenten erzeugen hoch privilegierte Machine-to-Machine-Kommunikation, die klassische Security-Perimeter überfordert. Sichtbarkeit, Agenten-Identitäten und Zero-Trust-Governance werden zur Voraussetzung für sichere KI-Infrastrukturen.
Der Autor: Mathias Widler ist Vice President Central & Eastern Europe bei Netskope
(Bild: Netskope)
Während sich die IT-Welt im letzten Jahr vor allem auf die Absicherung von Prompts und den Schutz vor Datenabfluss in Chatbots konzentriert hat, bahnt sich im Hintergrund die nächste Revolution an: Agentic AI. KI-Systeme beschränken sich nicht länger darauf, Antworten zu liefern, sondern agieren zunehmend autonom, rufen APIs auf und kommunizieren mit anderen Agenten. Damit entstehen neue, bislang unterschätzte Sicherheitsrisiken. Für Netzwerkverantwortliche bedeutet dies den Abschied von klassischen Sicherheitsperimetern hin zu einer dynamischen Governance von KI-Agenten.
Die Ära der Autonomie: Wenn die KI das Steuer übernimmt
Die Entwicklung der Künstlichen Intelligenz in Unternehmen schreitet mit hohem Tempo voran. Auf die Phase der „Assisted AI“, in der ein Mensch einen Prompt schreibt und ein Ergebnis erhält, folgt nun die Ära der Agentic AI. Ein KI-Agent erhält ein Ziel (Objective) und plant die notwendigen Schritte dorthin eigenständig. Dazu nutzt er „Tools“ – also Schnittstellen zu Datenbanken, Web-Browsern, CRM-Systemen oder Code-Interpretern –, um Aufgaben zu erledigen, die bisher manuelle Eingriffe erforderten.
Aus Netzwerksicht ist dieser Wandel fundamental: Der Traffic wird nicht mehr primär durch menschliche Interaktion ausgelöst, sondern durch autonome Workflows. Die klassische Human-to-Machine-Kommunikation (H2M) wird durch eine neue Form hochdynamischer Machine-to-Machine-Kommunikation (M2M) ergänzt und teilweise verdrängt. Diese ist unvorhersehbar, kontextabhängig und hochgradig privilegiert.
Die neue Sprache der Agenten: Model Context Protocol (MCP)
Um diese moderne Welt der Agenten zu ermöglichen, hat sich ein neuer Kommunikationsstandard herausgebildet: das Model Context Protocol (MCP). MCP entwickelt sich zur universellen Sprache für die Kommunikation zwischen Tools und Agenten. Es erlaubt KI-Systemen, Daten anzufordern, Aktionen auszuführen und Aufgaben in Echtzeit zu koordinieren, ohne für jede Verbindung eine eigene Schnittstelle programmieren zu müssen.
MCP bietet:
1. Standardisierung: Es definiert, wie Agenten auf Tools, Datenbanken, SaaS-Systeme und benutzerdefinierte Dienste zugreifen, um Daten als Kontext für Large Language Models (LLMs) zu extrahieren.
2. Entkopplung: Es ermöglicht Agenten, ohne störanfällige, manuell gewartete API-Verbindungen (API-Stitching) zu agieren. Ein Agent kann über MCP theoretisch mit jedem Tool kommunizieren, das den Standard unterstützt.
3. Modularität: Es fördert ein Ökosystem, in dem KI-Komponenten leicht ausgetauscht, skaliert und verwaltet werden können.
Doch mit dieser Flexibilität gehen erhebliche Risiken einher. Agenten können unwissentlich sensible Daten abrufen, teilen oder manipulieren. Die KI-zu-KI-Kommunikation findet oft unter dem Radar traditioneller Sicherheitskontrollen statt. Bisher fehlte eine native Policy-Ebene für den MCP-Datenverkehr – das bedeutet: keine Sichtbarkeit, keine Governance und keine automatisierte Durchsetzung von Sicherheitsrichtlinien durch herkömmliche Firewalls.
Die Sicherheitslücken in der Agenten-Kommunikation
Die Einführung von Kommunikationsprotokollen wie MCP ohne entsprechende Sicherheitsvorkehrungen ist vergleichbar mit der Nutzung des frühen Internets ohne verschlüsseltes HTTP. Zu den größten Risiken gehören:
Datenexfiltration und Privilegieneskalation: Agenten könnten Zugriff auf sensible personenbezogene Daten (PII) oder geistiges Eigentum erhalten und diese an externe Modelle oder nicht autorisierte Empfänger weitergeben. Wenn ein Agent im Namen eines Nutzers handelt, besteht die Gefahr, dass er dessen Berechtigungen auf eine Weise nutzt, die vom Nutzer nie beabsichtigt war.
Unbeabsichtigte autonome Aktionen: Ein falsch konfigurierter oder durch „Prompt Injection“ manipulierter Agent könnte eigenständig Systemänderungen vornehmen, fehlerhaften Code ausführen oder Datenlöschungen auslösen, die geschäftskritische Prozesse stören.
Schatten-Agenten: Da Plattformen die Erstellung von Agenten immer einfacher machen, bauen Fachabteilungen (Marketing, Vertrieb, HR) zunehmend eigene Lösungen. Diese „Shadow AI“ entzieht sich der Kontrolle der IT-Sicherheit, da die Kommunikation der Agenten oft direkt über verschlüsselte Tunnel zu Cloud-Anbietern erfolgt.
Strategien zur Absicherung von Agentic AI
Um agentische Kommunikation sicher zu gestalten, müssen Unternehmen eine neue Sicherheitsebene einrichten, die speziell auf die Besonderheiten von KI-Protokollen zugeschnitten ist.
1. Sichtbarkeit und Identifikation (Visibility)
Der erste Schritt ist die Identifikation des Protokollverkehrs. Sicherheitsarchitekturen müssen in der Lage sein, MCP-Aktivitäten im Netzwerk zu erkennen und zu kategorisieren. Dazu gehört die Erfassung von Attributen wie Servernamen, URLs, Client-Versionen und den aufgerufenen Tools. Nur wer sieht, welche Agenten mit welchen Datenbanken sprechen, kann Risiken bewerten.
2. Risikobewertung von MCP-Endpunkten
Nicht jeder MCP-Server oder jedes externe Tool ist vertrauenswürdig. Unternehmen benötigen ein Bewertungssystem, das die Reputation und das Sicherheitsniveau von KI-Gegenstellen einstuft. Dies ermöglicht die proaktive Unterbindung des Zugriffs auf riskante oder unverschlüsselte Kommunikationskanäle.
Anstatt den Zugriff auf KI-Dienste pauschal zu erlauben oder zu sperren, ist eine kontextbasierte Steuerung erforderlich. Richtlinien sollten definieren:
Welche Agenten dürfen auf welche Datenquellen zugreifen?
Welche Aktionen (z. B. „Read Only“ vs. „Write/Delete“) sind über MCP zulässig?
Enthält die Kommunikation sensible Informationen wie Passwörter oder IP-Adressen?
4. Kontinuierliches Monitoring und Auditierung
Die Entscheidungswege von KI-Agenten müssen nachvollziehbar bleiben. Durch das Protokollieren von Anfragen und Antworten (Logging) wird eine Revisionsfähigkeit geschaffen. Das ist nicht nur für die Fehlersuche wichtig, sondern auch für die Einhaltung regulatorischer Vorgaben wie des EU AI Acts, der Transparenz und Rückverfolgbarkeit bei hochriskanten KI-Systemen fordert.
Neue Aufgaben für CISOs und Netzwerk-Architekten
Die Implementierung von Agentic AI ist keine reine Software-Entscheidung, sondern eine fundamentale Infrastruktur-Aufgabe. Netzwerk-Architekten müssen sich fragen, ob ihre Netze für massiv steigende API-Lasten ausgelegt sind, ob vorhandene Gateways KI-Aktivitäten erkennen können und wie sich Agenten-Aktivitäten in SIEM- (Security Information and Event Management) und Forensik-Prozesse integrieren lassen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Absicherung von Agentic AI markiert ein neues Kapitel im Bereich der IT-Sicherheit, weil hier die Grenzen zwischen Software-Logik und Netzwerk-Sicherheit verschwimmen. Wer Agenten-Kommunikation nur als gewöhnlichen Web-Traffic betrachtet, riskiert Datenverlust und Manipulation. Die nächste Welle der KI-Innovation wird nicht durch immer größere Sprachmodelle definiert, sondern durch die Art und Weise, wie diese Modelle miteinander und mit der Außenwelt interagieren. Da diese Gespräche zunehmend über Standards wie das Model Context Protocol geführt werden, muss deren Absicherung als kritische Infrastruktur betrachtet werden. Nur wenn Organisationen die Kommunikation ihrer Agenten absichern, können sie das volle Potenzial der autonomen Workflow-Automatisierung ausschöpfen, ohne die Kontrolle über ihre Daten und Systeme zu verlieren. Das Ziel ist ein modulares, gesteuertes und skalierbares KI-Ökosystem, das Innovation ermöglicht und gleichzeitig die Integrität des Unternehmens schützt.