Gartner-Prognose zu GenAI-Sicherheit MCP macht GenAI angreifbarer

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Gartner rechnet mit deutlich mehr Sicherheitsvorfällen bei generativen KI-Anwendungen in Unternehmen. Hintergrund sind laut dem Analystenhaus vor allem agentische KI-Systeme und Frameworks wie das Model Context Protocol, kurz MCP, die neue Angriffsflächen eröffnen. Bis 2028 soll bereits jede vierte Enterprise-GenAI-Anwendung mindestens fünf kleinere Sicherheitsvorfälle pro Jahr verzeichnen.

Gartner sieht wachsende Sicherheitsrisiken bei GenAI in Unternehmen. Besonders MCP und agentische KI könnten mehr Vorfälle auslösen.(Bild:  KI-generiert)
Gartner sieht wachsende Sicherheitsrisiken bei GenAI in Unternehmen. Besonders MCP und agentische KI könnten mehr Vorfälle auslösen.
(Bild: KI-generiert)

Mit der Verbreitung agentischer KI rückt für Gartner ein Risiko stärker in den Vordergrund: Die Sicherheit der Anbindungen, über die Modelle auf Daten, Werkzeuge und externe Systeme zugreifen. Nach Einschätzung des Marktforschers werden bis 2028 rund 25 Prozent aller generativen KI-Anwendungen in Unternehmen jährlich mindestens fünf kleinere Sicherheitsvorfälle erleben. 2025 lag dieser Anteil laut Gartner noch bei 9 Prozent.

Offenes Protokoll, offene Flanken

Besonders kritisch sieht Gartner den Einsatz des Model Context Protocol (MCP). Das Protokoll wurde laut offizieller Dokumentation vor allem für Interoperabilität und flexible Integration konzipiert. Die Spezifikation selbst verweist darauf, dass Sicherheitsprinzipien nicht auf Protokollebene erzwungen werden, sondern von Implementierung und Betrieb abhängen.

Genau daraus ergibt sich laut Gartner die wachsende Angriffsfläche. Wenn KI-Agenten in einem Ablauf zugleich auf sensible Daten zugreifen, untrusted Content verarbeiten und mit externen Systemen kommunizieren, steigt das Risiko für Datenabfluss, Rechteausweitung und die Ausnutzung von Drittkomponenten.

Aaron Lord, Senior Director Analyst bei Gartner, warnt deshalb vor Sicherheitsfehlern ohne kontinuierliche Aufsicht über agentische KI-Systeme: „MCP wurde in erster Linie im Hinblick auf Interoperabilität, Benutzerfreundlichkeit und Flexibilität entwickelt. Ohne kontinuierliche Überwachung agentischer KI-Systeme können dadurch Sicherheitslücken entstehen. Vor diesem Hintergrund ist davon auszugehen, dass die Zahl kleinerer Sicherheitsvorfälle bei GenAI-Anwendungen weiter steigt. Bis 2029 werden zudem 15 Prozent aller GenAI-Anwendungen in Unternehmen mindestens einen größeren Sicherheitsvorfall pro Jahr erleben, gegenüber drei Prozent im Jahr 2025.“

Gartner rät zu klaren No-Go-Zonen

Als Gegenmaßnahmen empfiehlt Gartner formale Sicherheitsprüfungen für MCP-Anwendungsfälle, eine Priorisierung risikoarmer Einsatzmuster sowie Schutzmechanismen gegen bekannte Angriffstypen wie Content Injection, Supply-Chain-Risiken und ungewollte Offenlegung sensibler Daten.

Domain-Experten sollten zudem Leitplanken für zulässige Interaktionen definieren, bevor KI-Agenten auf Daten und Ressourcen zugreifen. Ähnliche Schwerpunkte nennt auch die offizielle MCP-Sicherheitsdokumentation, etwa Zugriffskontrollen, Autorisierung und die Absicherung von Integrationen.

(ID:50811504)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung