Kommentar von Mathias Widler, Netskope Agentic AI – warum Netzwerksicherheit neu gedacht werden muss

Von Mathias Widler 5 min Lesedauer

Anbieter zum Thema

Autonome KI-Agenten erzeugen hoch privilegierte Machine-to-Machine-Kommunikation, die klassische Security-Perimeter überfordert. Sichtbarkeit, Agenten-Identitäten und Zero-Trust-Governance werden zur Voraussetzung für sichere KI-Infrastrukturen.

Der Autor: Mathias Widler ist Vice President Central & Eastern Europe bei Netskope(Bild:  Netskope)
Der Autor: Mathias Widler ist Vice President Central & Eastern Europe bei Netskope
(Bild: Netskope)

Während sich die IT-Welt im letzten Jahr vor allem auf die Absicherung von Prompts und den Schutz vor Datenabfluss in Chatbots konzentriert hat, bahnt sich im Hintergrund die nächste Revolution an: Agentic AI. KI-Systeme beschränken sich nicht länger darauf, Antworten zu liefern, sondern agieren zunehmend autonom, rufen APIs auf und kommunizieren mit anderen Agenten. Damit entstehen neue, bislang unterschätzte Sicherheitsrisiken. Für Netzwerkverantwortliche bedeutet dies den Abschied von klassischen Sicherheitsperimetern hin zu einer dynamischen Governance von KI-Agenten.

Die Ära der Autonomie: Wenn die KI das Steuer übernimmt

Die Entwicklung der Künstlichen Intelligenz in Unternehmen schreitet mit hohem Tempo voran. Auf die Phase der „Assisted AI“, in der ein Mensch einen Prompt schreibt und ein Ergebnis erhält, folgt nun die Ära der Agentic AI. Ein KI-Agent erhält ein Ziel (Objective) und plant die notwendigen Schritte dorthin eigenständig. Dazu nutzt er „Tools“ – also Schnittstellen zu Datenbanken, Web-Browsern, CRM-Systemen oder Code-Interpretern –, um Aufgaben zu erledigen, die bisher manuelle Eingriffe erforderten.

Aus Netzwerksicht ist dieser Wandel fundamental: Der Traffic wird nicht mehr primär durch menschliche Interaktion ausgelöst, sondern durch autonome Workflows. Die klassische Human-to-Machine-Kommunikation (H2M) wird durch eine neue Form hochdynamischer Machine-to-Machine-Kommunikation (M2M) ergänzt und teilweise verdrängt. Diese ist unvorhersehbar, kontextabhängig und hochgradig privilegiert.

Die neue Sprache der Agenten: Model Context Protocol (MCP)

Um diese moderne Welt der Agenten zu ermöglichen, hat sich ein neuer Kommunikationsstandard herausgebildet: das Model Context Protocol (MCP). MCP entwickelt sich zur universellen Sprache für die Kommunikation zwischen Tools und Agenten. Es erlaubt KI-Systemen, Daten anzufordern, Aktionen auszuführen und Aufgaben in Echtzeit zu koordinieren, ohne für jede Verbindung eine eigene Schnittstelle programmieren zu müssen.

MCP bietet:

  • 1. Standardisierung: Es definiert, wie Agenten auf Tools, Datenbanken, SaaS-Systeme und benutzerdefinierte Dienste zugreifen, um Daten als Kontext für Large Language Models (LLMs) zu extrahieren.
  • 2. Entkopplung: Es ermöglicht Agenten, ohne störanfällige, manuell gewartete API-Verbindungen (API-Stitching) zu agieren. Ein Agent kann über MCP theoretisch mit jedem Tool kommunizieren, das den Standard unterstützt.
  • 3. Modularität: Es fördert ein Ökosystem, in dem KI-Komponenten leicht ausgetauscht, skaliert und verwaltet werden können.

Doch mit dieser Flexibilität gehen erhebliche Risiken einher. Agenten können unwissentlich sensible Daten abrufen, teilen oder manipulieren. Die KI-zu-KI-Kommunikation findet oft unter dem Radar traditioneller Sicherheitskontrollen statt. Bisher fehlte eine native Policy-Ebene für den MCP-Datenverkehr – das bedeutet: keine Sichtbarkeit, keine Governance und keine automatisierte Durchsetzung von Sicherheitsrichtlinien durch herkömmliche Firewalls.

Die Sicherheitslücken in der Agenten-Kommunikation

Die Einführung von Kommunikationsprotokollen wie MCP ohne entsprechende Sicherheitsvorkehrungen ist vergleichbar mit der Nutzung des frühen Internets ohne verschlüsseltes HTTP. Zu den größten Risiken gehören:

  • Datenexfiltration und Privilegieneskalation: Agenten könnten Zugriff auf sensible personenbezogene Daten (PII) oder geistiges Eigentum erhalten und diese an externe Modelle oder nicht autorisierte Empfänger weitergeben. Wenn ein Agent im Namen eines Nutzers handelt, besteht die Gefahr, dass er dessen Berechtigungen auf eine Weise nutzt, die vom Nutzer nie beabsichtigt war.
  • Unbeabsichtigte autonome Aktionen: Ein falsch konfigurierter oder durch „Prompt Injection“ manipulierter Agent könnte eigenständig Systemänderungen vornehmen, fehlerhaften Code ausführen oder Datenlöschungen auslösen, die geschäftskritische Prozesse stören.
  • Schatten-Agenten: Da Plattformen die Erstellung von Agenten immer einfacher machen, bauen Fachabteilungen (Marketing, Vertrieb, HR) zunehmend eigene Lösungen. Diese „Shadow AI“ entzieht sich der Kontrolle der IT-Sicherheit, da die Kommunikation der Agenten oft direkt über verschlüsselte Tunnel zu Cloud-Anbietern erfolgt.

Strategien zur Absicherung von Agentic AI

Um agentische Kommunikation sicher zu gestalten, müssen Unternehmen eine neue Sicherheitsebene einrichten, die speziell auf die Besonderheiten von KI-Protokollen zugeschnitten ist.

1. Sichtbarkeit und Identifikation (Visibility)

Der erste Schritt ist die Identifikation des Protokollverkehrs. Sicherheitsarchitekturen müssen in der Lage sein, MCP-Aktivitäten im Netzwerk zu erkennen und zu kategorisieren. Dazu gehört die Erfassung von Attributen wie Servernamen, URLs, Client-Versionen und den aufgerufenen Tools. Nur wer sieht, welche Agenten mit welchen Datenbanken sprechen, kann Risiken bewerten.

2. Risikobewertung von MCP-Endpunkten

Nicht jeder MCP-Server oder jedes externe Tool ist vertrauenswürdig. Unternehmen benötigen ein Bewertungssystem, das die Reputation und das Sicherheitsniveau von KI-Gegenstellen einstuft. Dies ermöglicht die proaktive Unterbindung des Zugriffs auf riskante oder unverschlüsselte Kommunikationskanäle.

3. Granulare Richtliniendurchsetzung (Policy Enforcement)

Anstatt den Zugriff auf KI-Dienste pauschal zu erlauben oder zu sperren, ist eine kontextbasierte Steuerung erforderlich. Richtlinien sollten definieren:

  • Welche Agenten dürfen auf welche Datenquellen zugreifen?
  • Welche Aktionen (z. B. „Read Only“ vs. „Write/Delete“) sind über MCP zulässig?
  • Enthält die Kommunikation sensible Informationen wie Passwörter oder IP-Adressen?

4. Kontinuierliches Monitoring und Auditierung

Die Entscheidungswege von KI-Agenten müssen nachvollziehbar bleiben. Durch das Protokollieren von Anfragen und Antworten (Logging) wird eine Revisionsfähigkeit geschaffen. Das ist nicht nur für die Fehlersuche wichtig, sondern auch für die Einhaltung regulatorischer Vorgaben wie des EU AI Acts, der Transparenz und Rückverfolgbarkeit bei hochriskanten KI-Systemen fordert.

Neue Aufgaben für CISOs und Netzwerk-Architekten

Die Implementierung von Agentic AI ist keine reine Software-Entscheidung, sondern eine fundamentale Infrastruktur-Aufgabe. Netzwerk-Architekten müssen sich fragen, ob ihre Netze für massiv steigende API-Lasten ausgelegt sind, ob vorhandene Gateways KI-Aktivitäten erkennen können und wie sich Agenten-Aktivitäten in SIEM- (Security Information and Event Management) und Forensik-Prozesse integrieren lassen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Fazit: Kommunikation als kritische Infrastruktur

Die Absicherung von Agentic AI markiert ein neues Kapitel im Bereich der IT-Sicherheit, weil hier die Grenzen zwischen Software-Logik und Netzwerk-Sicherheit verschwimmen. Wer Agenten-Kommunikation nur als gewöhnlichen Web-Traffic betrachtet, riskiert Datenverlust und Manipulation. Die nächste Welle der KI-Innovation wird nicht durch immer größere Sprachmodelle definiert, sondern durch die Art und Weise, wie diese Modelle miteinander und mit der Außenwelt interagieren. Da diese Gespräche zunehmend über Standards wie das Model Context Protocol geführt werden, muss deren Absicherung als kritische Infrastruktur betrachtet werden. Nur wenn Organisationen die Kommunikation ihrer Agenten absichern, können sie das volle Potenzial der autonomen Workflow-Automatisierung ausschöpfen, ohne die Kontrolle über ihre Daten und Systeme zu verlieren. Das Ziel ist ein modulares, gesteuertes und skalierbares KI-Ökosystem, das Innovation ermöglicht und gleichzeitig die Integrität des Unternehmens schützt.

Artikelfiles und Artikellinks

(ID:50683906)