Supply-Chain-Angriffe auf KI-Agenten AI Skills Check: Wenn der nächste Skill (k)ein Schadcode ist

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Drittanbieter-Skills für KI-Agenten werden in Unternehmen installiert wie früher Browser-Plug-ins, oft ohne Prüfung, mit weitreichenden Berechtigungen und zunehmend im Visier von Angreifern. Das Berliner Unternehmen Mondoo will mit einem kostenlosen Security Checker Transparenz in diese neue, weitgehend ungesicherte Ebene der Software-Lieferkette bringen.

Mondoo startet einen kostenlosen Scanner für KI-Skills. Das Tool soll Risiken in agentischen KI-Ökosystemen vor der Installation sichtbar machen.(Bild:  Mondoo)
Mondoo startet einen kostenlosen Scanner für KI-Skills. Das Tool soll Risiken in agentischen KI-Ökosystemen vor der Installation sichtbar machen.
(Bild: Mondoo)

Das Berliner Security-Unternehmen Mondoo bringt mit dem AI Skills Check einen kostenlosen, agentenunabhängigen Scanner auf den Markt, der KI-Agenten-Skills anhand von Namen, Registern oder Package-URLs vor der Installation auf Sicherheitsrisiken prüft. Nutzer erhalten Einblicke in Funktionen, Verhalten und Sicherheitsrisiken eines Skills. Der Service ist kostenlos, erfordert kein Abonnement und funktioniert agentenunabhängig über Entwicklungsumgebungen wie Claude Code, Cursor und Windsurf sowie über MCP-Server hinweg. Unterstützt werden die Skill-Register ClawHub und Skills.sh.

Der Mondoo AI Skills Check scannt KI-Agenten-Skills über vier Sicherheitsebenen, von denen jede darauf ausgelegt ist, unterschiedliche Risikokategorien zu erfassen:

  • Pattern Match: Identifiziert bekannte bösartige Signaturen und Verhaltensweisen wie das Sammeln von Anmeldedaten und Datenexfiltration.
  • ML Classifier: Verwendet trainierte Machine-Learning-Modelle, um neuartige Bedrohungen zu erkennen, die nicht mit bekannten Mustern übereinstimmen.
  • Semantic Analysis: Bewertet Beschreibungen und Anweisungen, um irreführende Behauptungen oder Unstimmigkeiten zu identifizieren.
  • Deep Inspection: Untersucht Berechtigungen, externe Interaktionen und das tatsächliche Verhalten, um festzustellen, ob ein Skill mit seinem angegebenen Zweck übereinstimmt.

Die Ergebnisse werden auf MITRE ATLAS und die OWASP LLM Top 10 gemappt. Echtzeit-Ranglisten zeigen zudem die populärsten und die riskantesten Skills, sodass Verantwortliche schnell überprüfen können, was in ihrer Organisation wahrscheinlich bereits im Einsatz ist.

„Teams installieren KI-Agenten-Skills mit sehr wenig Transparenz darüber, wie sie sich tatsächlich verhalten oder worauf sie Zugriff haben. Diese Skills können im Namen der Nutzer handeln, was die Risiken erheblich erhöht“, sagte Patrick Münch, Chief Security Officer und Mitbegründer von Mondoo. „Wir haben den AI Skills Check entwickelt, um diese Lücke zu schließen, damit Unternehmen echte Risiken erkennen können, noch bevor ein Skill überhaupt Zugriff auf ihre Systeme erhält und das kostenlos.“

Der kostenlose Checker ist dabei als Einstiegspunkt in Mondoos kostenpflichtige Exposure Assessment Platform konzipiert, die durchgängiges Schwachstellenmanagement von der Entwicklung bis zur Produktion bietet.

ClawHavoc, ToxicSkills und die Lücke in der KI-Lieferkette

Während die Adoption von KI-Agenten boomt, bleibt die Sicherheit ihrer Skills weitgehend ungelöst. Die ClawHavoc-Kampagne im Januar und Februar 2026 zeigt, wie konkret die Bedrohung ist: Angreifer schmuggelten über 1.184 bösartige Skills in ClawHub, das mit über 10.700 Einträgen größte öffentliche Skill-Register. Der Hauptpayload war Atomic Stealer (AMOS), ein macOS-Infostealer, der Kryptowährungs-Wallets, SSH-Zugangsdaten und Browser-Passwörter abgreift. Keine Zero-Day-Exploits waren nötig. Die Angreifer setzten ausschließlich auf Social Engineering.

Snyks ToxicSkills-Analyse von 3.984 Skills bestätigt das Ausmaß: 13,4 Prozent wiesen kritische Schwachstellen auf, 76 Skills enthielten bestätigte bösartige Payloads mit Remote Code Execution, Backdoors und Credential Theft.

Verschärfend kommt hinzu, dass das Model Context Protocol (MCP) selbst neue Angriffsvektoren schafft: Gartner prognostiziert, dass bis 2029 15 Prozent aller GenAI-Anwendungen in Unternehmen mindestens einen größeren Sicherheitsvorfall pro Jahr erleben werden.

Das BSI fordert bereits eine „SBOM for AI“ als Transparenzinstrument für KI-Lieferketten, doch bei KI-Agenten-Skills existiert bislang weder ein einheitliches Format noch eine etablierte Sicherheitspraxis.

(ID:50823532)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung