Der KI-Assistent „OpenClaw“ geht derzeit viral. Er verfügt über viele praktische Funktionen und modulare Plugins. Doch dafür benötigt er weitreichende Systemrechte und ist damit ein interessantes Ziel für Cyberkriminelle. Es stellt sich also die Frage, wie sicher ist der neue Trend-KI-Agent?
OpenClaw ging Ende 2025 an den Start und schon mehrere Tausend Nutzer. Doch Malware-verseuchte Skills und Sicherheitslücken riskieren die Sicherheit der User.
Berichte und News über „OpenClaw“ fluten derzeit das Internet. Die Begeisterung war groß: Gründer Peter Steinberger, der zuvor das Dokumentensoftware-Unternehmen „PSPDFKit“ gegründet hatte hat OpenClaw im November 2025 ins Leben gerufen. Seitdem hat das Open-Source-Projekt mehr als 184.000 Endorsements auf GitHub erhalten. GitHub-Nutzer können Endorsements in Form von Sternen vergeben, die damit die Popularität und Qualität des Projekts zeigen. Schon Mitte Januar 2026 erreichte die Nutzung von OpenClaw einen Höhepunkt, als die Anzahl der täglichen Forks auf GitHub von über 50 auf über 3.000 anstieg. Mittlerweile sind es über 30.000 Forks, also Kopien des Projektes, über die Nutzer Änderungen und Verbesserungen vornehmen können. Dies könnte sogar das schnellste Wachstum in der Geschichte von GitHub sein. Doch neben dem Hype kam auch schnell die Sorge um die Cybersicherheit. Denn Sicherheitslücken sowie potenziell schädlichen Plugins treiben derzeit ihr Unwesen.
OpenClaw, früher zeitweise erst „Clawdbot“ und bis vor Kurzem noch „Moltbot“ genannt, ist ein Open-Source-Projekt, das die Entwicklung von autonomen KI-Agenten zum Ziel hat. Der KI-Assistent kann Aufgaben wie das Verwalten von E-Mails, Kalendern und Reisen automatisiert. Die Interaktion erfolgt über verschiedene Messaging-Plattformen wie WhatsApp, Telegram, Discord, Slack, iMessage und Signal. Teil von OpenClaw ist „ClawHub“, eine öffentliche Plattform, auf der Nutzer Fähigkeiten für OpenClaw-Agenten teilen und suchen können. Diese Agentenfähigkeiten sind einfache Programmkomponenten oder Funktionen, die die Möglichkeiten von OpenClaw erweitern, sodass die Agenten verschiedene Aufgaben effizienter erledigen können. ClawHub ermöglicht es den Nutzern, diese Fähigkeiten leicht zu finden und zu verwenden, um ihre individuellen Anforderungen zu erfüllen.
Mithilfe dieser Integrationen kann OpenClaw zum Beispiel:
E-Mails sortieren und beantworten
Pull Requests prüfen
Tagesbesprechungen zusammenfassen
Aktivitäten planen und buchen
Wochenmenüs für die Familie planen und Lebensmittel online bestellen
Code schreiben und Anwendungen in Ihrem Namen bereitstellen
Je nach Skill und Berechtigung kann OpenClaw sogar vollen Zugriff auf einen Passwortmanager erhalten, um Aktionen über Webseiten auszuführen, die einen Login erfordern, oder Auswertung von persönlichen Aktien- oder Bitcoin-Entwicklungen erstellen.
Genau aus diesem Grund, erfreut sich OpenClaw derzeit großer Beliebtheit: Im Gegensatz zu den statischen Funktionen vieler anderer KI-Assistenten sind die Agentenfähigkeiten von OpenClaw als modulare Komponenten konzipiert, die leicht hinzugefügt, entfernt oder verändert werden können. Dies ermöglicht den Nutzern eine individuelle Anpassung ihrer KI-Agenten an spezifische Bedürfnisse und Anwendungsfälle. Doch mit den vielen Fähigkeiten von OpenClaw gehen auch einige Sicherheitsrisiken einher.
Das Analystenteam von Gitguardian, einem französischen Unternehmen, das sich auf den Schutz nicht-menschlicher Identitäten spezialisiert hat, hat OpenClaw – zum Zeitpunkt der Untersuchung noch Moltbot – genauer unter die Lupe genommen. Ihren Ergebnissen zufolge, konnten sie über 200 geleakte Secrets entdecken, die mit der Nutzung von OpenClaw zusammenhängen. Die Secrets hätten kritische Daten wie Integrations-Token und Zugangsdaten zu Kubernetes-Clustern von Unternehmen aus dem Gesundheitswesen und der Finanztechnologie enthalten.
Der Hersteller habe festgestellt, dass viele Benutzer ihre OpenClaw-Arbeitsbereiche, die sensible Informationen enthielten, versehentlich in öffentliche GitHub-Repositories hochgeladen hätten. Diese Repository-Namen hätten häufig die Schlüsselwörter „clawdbot“ oder „moltbot“ enthalten. Aus diesen Repositories seien 181 eindeutige Geheimnisse identifiziert worden, darunter kritische Daten wie API-Tokens. Zudem seien auf DockerHub öffentliche Images gespeichert gewesen, die geheime Informationen im Zusammenhang mit OpenClaw enthalten hätten. Das erste Datenleck habe Gitguardian am 15. Januar 2026 entdeckt, darunter sensible Daten wie GitHub-Tokens, AWS IAM-Schlüssel und Cloudflare-Tokens.
Gitguardian habe insgesamt 38 Entwickler identifiziert, die für die Datenlecks verantwortlich gewesen seien und diese unverzüglich kontaktiert. Leider seien bis zum jetzigen Zeitpunkt die meisten der geleakten Zugangsdaten nach wie vor gültig.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Malware-verseuchte Skills bei ClawHub
Doch nicht nur OpenClaw hat mit Sicherheitsanfälligkeiten zu kämpfen. Auch die Plattform ClawHub birgt Risiken für die Informationssicherheit. So berichten die Forscher von Koi Security, 341 schädliche ClawHub-Skills entdeckt zu haben, die darauf abzielen würden, Daten von OpenClaw-Nutzern zu stehlen. Bei einem Sicherheitsaudit von 2.857 Skills auf ClawHub hätten die Forscher entdeckt, dass 335 der Skills gefälschte Voraussetzungen verwenden würden, um einen Apple-macOS-Stealer namens Atomic Stealer zu installieren. Koi verfolgt dieses Angriffsszenario unter dem Namen „ClawHavoc“. Der Angriff beginne mit der Installation eines schädlichen ClawHub-Skills, der gefälschte Voraussetzungen angebe. Der Nutzer werde aufgefordert, eine Datei namens „openclaw-agent.zip“ herunterzuladen oder ein Skript in das Terminal einzugeben. Diese Datei enthalte einen Trojaner, der sensible Daten wie API-Schlüssel und Anmeldedaten anfange. Sobald der Trojaner aktiv sei, könne er weitere Schadsoftware ausführen und auf persönliche Informationen des Nutzers zugreifen. Interessant ist, dass Koi diese Sicherheitsanfälligkeit mit dem hauseigenen KI-System „Alex“ entdeckt haben will.
Laut Koi tarnen sich die bösartigen Skills unter anderem als:
ClawHub-Typosquats, wie clawhub, clawhub1, clawhubb oder clawhubcli
Kryptowährungs-Tools wie Solana-Wallets und Wallet-Tracker
Polymarket-Bots, wie polymarket-trader oder polymarket-pro
YouTube-Utilities
Auto-Updater, zum Beispiel auto-updater-agent oder updater
Finanz- und Social-Media-Tools, yahoo-finance-pro und x-trends-tracker
Google Workspace-Tools
Nach diesen Entdeckungen nahm Peter Steinberger bei der Community-Konferenz ClawCon am 4. Februar 2026 Stellung dazu. Das Unternehmen wolle neue Schutzmaßnahmen einrichten. So wurde eine Meldefunktion eingeführt, mit der angemeldete Benutzer Skills melden können. Jeder Benutzer kann bis zu 20 aktive Meldungen gleichzeitig haben. Skills, die mehr als drei eindeutige Meldungen erhalten, werden standardmäßig auf ClawHub ausgeblendet.
Die Schwachstellen in OpenClaw sowie die Anfälligkeit für eingeschleuste Malware-Skills zeigen erneut, dass KI-Systeme, Large Language Models sowie KI-Agenten gerade wegen ihrer Vielfältigen Anwendbarkeit und den sensiblen Daten, die User hochladen, zum gefundenen Fressen für Cyberkriminelle werden können. Palo Alto Networks warnte in einem Blogbeitrag, dass OpenClaw das darstelle, was der britische Softwareentwickler Simon Willison, der den Begriff „Prompt Injection“ prägte, als „tödliche Dreifaltigkeit“ („lethal trifecta“) bezeichnete. Damit sei die Tatsache gemeint, dass KI-Agenten aufgrund ihres Zugriffs auf private Daten, ihrer Exposition gegenüber nicht vertrauenswürdigen Inhalten und ihrer Fähigkeit zur externen Kommunikation von Grund auf angreifbar sind. Das Zusammenspiel dieser drei Eigenschaften, kombiniert mit dem persistenten Speicher von OpenClaw, wirke Palo Alto zufolge wie ein Beschleuniger und verstärke die Risiken der KI-Agenten.
Eric Fourrier, CEO bei Gitguardian, erläutert: „KI-Agenten sind hochprivilegierte Systeme, die wie eigenständige Identitäten agieren, aber oft nicht so behandelt werden. Sie benötigen Zugriff auf sensible Daten, APIs und Infrastruktur, um autonom arbeiten zu können. Das Problem: Im Gegensatz zu menschlichen Nutzern arbeiten diese Agenten rund um die Uhr, erstellen automatisch Dateien, Logs und Outputs. Genau dort landen häufig auch vertrauliche Zugangsdaten. Die Angriffsfläche wächst exponentiell, weil jeder Agent eigene Credentials benötigt und traditionelle Sicherheitskonzepte für diese neue Realität nicht ausgelegt sind.“
Aus diesen Gründen beschreibt Fourrier Maschinenidentitäten und KI-Agenten als die nächste große Angriffsfläche. Während klassische IAM-Lösungen für menschliche Identitäten und statische Service-Accounts konzipiert seien, würden sich KI-Agenten jedoch grundlegend anders verhalten. „Sie erstellen eigenständig Dateien, führen Tools aus, loggen Sessions und generieren Outputs. Zum Beispiel auch in lokalen Workspaces, die zur Synchronisation in Repositories geladen werden. Dabei entstehen Zugangsdaten an unerwarteten Stellen: in Session-Logs, generierten Scripts oder Tool-Outputs. IAM-Systeme können nicht kontrollieren, was der Agent während seiner Arbeit produziert und wohin diese Artefakte wandern.“
Hier kann dem CEO zufolge nur ein mehrschichtiger Ansatz Abhilfe schaffen:
1. Kontinuierliches Scanning der Agent-Workspaces hinsichtlich Zugangsinformationen.Nicht nur im Git-Repository, sondern auch in lokalen Konfigurationsdateien.
2. Pre-Commit-Hooks installieren, die Commits mit Zugangsdaten automatisch blockieren, bevor sie in die Versionskontrolle gelangen
3. Integration der Zugangsdaten-Erkennung direkt in den Agent selbst.
OpenClaw hat zuletzt eine Partnerschaft mit dem kostenlosen Online-Dienst VirusTotal angekündigt, um seine Sicherheit zu erhöhen . Die Zusammenarbeit mit dem seit 2012 zu Google gehörenden Online-Scanner soll helfen, das Hochladen von Malware-verseuchten Skills einzudämmen. Dafür scannen die Engines von VirusTotal die Uploads bei ClawHub und spüren Schadcode auf. Verdächtige Skills werden gesperrt und können nicht heruntergeladen werden. Bereits hochgeladene Skills werden jeden Tag erneut gescannt werden, um auch nachträglich hinzugefügte Malware entdecken zu können.
Security-Learning
Die Antwort auf die Frage „Wie sicher ist OpenClaw“ lässt sich nur schwer eindeutig beantworten. Aktuell ist die Sicherheitslage des KI-Assistenten besorgniserregend, da er weitreichende Systemrechte benötigt, damit ein attraktives Ziel für Cyberkriminelle darstellt und bereits aktiv für die Verteilung von Malware missbraucht wird. Die Verantwortung für die architektonische Sicherheit der KI-Systeme liegt bei den Hersteller, die die Sicherheit als Kernelement von Anfang an in die Entwicklung mit einfließen lassen sollten. Dies beinhaltet die Implementierung robuster Sicherheitsprotokolle, die kontinuierliche Überprüfung von Software und das regelmäßige Patchen von Schwachstellen. Nur so kann die grundlegende Sicherheit von KI-Assistenten langfristig verbessert werden.
Auf der anderen Seite sind die Unternehmen, die die Systeme einsetzen, dazu aufgerufen, klare Richtlinien für die sichere Verwendung zu implementieren und ihre Mitarbeiter zu sensibilisieren. Sie sollten darin geschult werden, potenzielle Risiken zu erkennen und verantwortungsvoll mit den ihnen anvertrauten Daten umzugehen. Eine Kombination dieser Maßnahmen kann dazu beitragen, die Sicherheit von OpenClaw und ähnlichen KI-Systemen erheblich zu verbessern.
Verwendung von Sicherheits-Tools: Der kostenlose AI Skill Checker von Bitdefender kann helfen, bösartigen Payload in OpenClaw Skills zu identifizieren. Dies ist besonders wichtig, da laut Bitdefender 17 Prozent der in der ersten Februarwoche bereitgestellten Skills von OpenClaw ein verdächtiges Verhalten zeigten. Nutzer sollen mit diesem Tool potenzielle Risiken vor der Installation oder dem Betrieb eines Skills analysieren können und werden bei verdächtigem Verhalten gewarnt.
Private Speicher nutzen: Gitguardian empfiehlt Nutzern von OpenClaw, den bereitgestellten Arbeitsbereich als privaten Speicher zu behandeln und rät, ihn in privaten GitHub-Repositories zu speichern. Der Hersteller hat das ClawHub-Skill „ggshield“ entwickelt, welches OpenClaw-User nutzen können, um nach der Installation der KI-Agenten ihren Arbeitsbereich auf hartcodierte Geheimnisse zu scannen, Sicherheitslücken zu identifizieren und sicherzustellen, dass keine sensiblen Daten in öffentliche Repositories eingecheckt werden. Damit sollen Nutzer nur noch Fragen wie „Sind diese Daten sicher?“ stellen müssen und sofortige Rückmeldungen erhalten, um die Sicherheit ihrer Projekte zu gewährleisten.
Klare Richtlinien und Vorsicht bei der Eingabe von Inhalten: OpenClaw-Nutzer sollten besonders vorsichtig sein, welche KI-Skills sie verwenden. Grundsätzlich gilt, das Unternehmen klare Richtlinien für die Nutzung von KI-Tools und -Skills entwickeln sollten und ihren Mitarbeitenden eine Whitelist der erlaubten KI-Systeme sowie Leitfäden zur sicheren Nutzung bereitstellen sollten. Generell gilt, dass Nutzer keine sensiblen und personenbezogenen Daten in die Systeme einspeisen sollten. Zudem sollten Unternehmen den Zugriff auf KI-Anwendungen und -Daten auf autorisierte Benutzer beschränken und die Multifaktor-Authentifizierung zwingend etablieren.
Regelmäßige Sicherheitsupdates und Awareness-Schulungen: Unternehmen, die KI-Tools nutzen, sollten diese stets auf dem aktuellen Stand halten, um Sicherheitslücken zu schließen. Dabei hilft auch ein regelmäßiges Monitoring und Reporting. Zudem sollten Mitarbeiter regelmäßig zum Umgang mit Künstlicher Intelligenz geschult werden.