Generative Systeme sind längst Teil des Arbeitsalltags geworden. Verträge werden geprüft, Code analysiert, Präsentationen erstellt und interne Prozesse zusammengefasst. Was dabei oft unterschätzt wird: Mit jeder Eingabe werden Daten bewegt. Nicht im Rahmen eines Angriffs, sondern im normalen Arbeitsablauf. Die entscheidende Frage ist daher nicht, ob KI genutzt wird. Sie lautet vielmehr: Wie können Unternehmen sicherstellen, dass KI sicher, transparent und im Einklang mit ihrer Risikobereitschaft eingesetzt wird?
Der Autor: Max Heinemeyer ist Global Field CISO bei Darktrace und Cybersicherheitsexperte mit über einem Jahrzehnt Erfahrung in diesem Bereich
(Bild: Darktrace)
Der aktuelle State of AI Cybersecurity Report 2026 von Darktrace zeigt, wie schnell die Einführung von KI die Unternehmensumgebungen verändert. Gleichzeitig verdeutlichen interne Untersuchungen von Darktrace, wie viele Daten bereits im Arbeitsalltag in generative KI-Systeme fließen. In einer Analyse lag das durchschnittliche anomale Upload-Volumen zu generativen KI-Diensten bei rund 75 Megabyte – das entspricht etwa 4.700 Seiten an Dokumenten. Diese Mengen entstehen selten durch große, gezielte Transfers. Stattdessen summieren sie sich typischerweise durch Routineaktivitäten wie Prompteingaben, Dokumentenprüfungen, Codeanalysen oder automatisierte Zusammenfassungen.
Aus Sicht der IT-Sicherheit ist das bemerkenswert. Daten verlassen das Unternehmen nicht über klar definierte Integrationen oder dokumentierte Schnittstellen, sondern über Prompteingaben, API-Verbindungen und parallele Plattformnutzung. Viele dieser Bewegungen sind formal legitim, bleiben in ihrer Gesamtheit jedoch unsichtbar. Das Ergebnis ist ein strukturelles Transparenzproblem. Dieses zu adressieren, bedeutet nicht, die Nutzung von KI einzuschränken. Es bedeutet, die notwendige Sichtbarkeit zu schaffen, um ihren Einsatz verantwortungsvoll zu ermöglichen.
Wahrgenommene Bedrohung und fehlende Leitplanken
Ein Blick auf die Umfragedaten zeigt die Diskrepanz deutlich. Fast drei Viertel (73 %) der Sicherheitsverantwortlichen geben an, dass KI-gestützte Bedrohungen bereits einen erheblichen Einfluss auf ihr Unternehmen haben. Gleichzeitig berichten nur 37 Prozent, dass sie über eine formale Richtlinie für den sicheren Einsatz von KI-Systemen verfügen.
Diese Zahlen deuten nicht auf Panik hin, sondern auf eine Lücke zwischen Wahrnehmung und Kontrolle. Risiken werden erkannt, doch praktische Leitplanken, die es Teams ermöglichen, KI sicher und im großen Maßstab zu nutzen, fehlen in vielen Unternehmen noch. Hinzu kommt ein weiteres Problem: Selbst in Unternehmen mit offiziell freigegebenen generativen Tools nutzen 91 Prozent der Mitarbeiter zusätzlich weitere, vermutlich nicht autorisierte Dienste. Für Sicherheitsteams bedeutet das: Die Einführung von KI schreitet schneller voran, als sich Governance-Modelle weiterentwickeln.
Shadow-Nutzung als analytische Herausforderung
Die Diskussion wird oft moralisch geführt. Im Kern handelt es sich jedoch um eine analytische Aufgabe. Wer Datenrisiken bewerten will, muss zunächst wissen, welche Daten wohin und in welchem Umfang fließen.
Viele bestehende Kontrollmechanismen sind auf klar definierte Datenobjekte ausgelegt. Sie erkennen bekannte Dateitypen oder spezifische Schlüsselwörter. Prompt-basierte Interaktionen bestehen hingegen oft aus Textfragmenten, die für sich genommen harmlos erscheinen. In ihrer Gesamtheit können sie jedoch sensible Informationen über Projekte, Kunden oder interne Prozesse offenlegen. In Unternehmensumgebungen beobachtet Darktrace, dass diese kumulativen Effekte häufig unterschätzt werden. Entscheidend ist nicht der einzelne Datensatz, sondern das Verhaltensmuster in Echtzeit, das sich aus Interaktionen über verschiedene Systeme hinweg ergibt.
Von Nutzung zu Delegation
Mit dem Übergang zu agentischen Systemen verschärft sich die Situation. Systeme agieren zunehmend eigenständig, greifen auf interne Datenquellen zu, führen API-Aufrufe aus und erledigen Aufgaben im Auftrag von Mitarbeitern. Sie melden sich an, nutzen bestehende Berechtigungen und bewegen Daten über Systemgrenzen hinweg.
Damit entsteht eine neue Klasse von datenverarbeitenden Akteuren. Sie sind weder klassische Nutzer noch reine Hintergrunddienste. Ihre Aktivitätsmuster lassen sich nicht ohne Weiteres in bestehende Rollenmodelle einordnen. Das macht diese Systeme nicht per se riskant. Es erfordert jedoch neue Modelle, um zu verstehen, wie sie innerhalb von Unternehmensumgebungen agieren. Aus Datensicht verschiebt sich der Fokus erneut. Es reicht nicht mehr aus, Berechtigungen formal zu prüfen. Entscheidend ist, ob deren Nutzung im jeweiligen Kontext üblich ist.
Warum statische Modelle an ihre Grenzen stoßen
Viele Sicherheitsarchitekturen basieren auf statischen Rollen und klar definierten Zugriffswegen. Diese Logik funktioniert, solange Prozesse vorhersehbar bleiben. Dynamische Interaktionen zwischen internen Datenquellen und externen Systemen stellen dieses Modell jedoch infrage. Ein Agent kann innerhalb kurzer Zeit verschiedene Datenbestände analysieren und Ergebnisse in neue Kontexte übertragen. Formal bleibt jeder einzelne Zugriff erlaubt. Erst in der Gesamtschau entsteht ein Muster, das auf eine potenzielle Risikokonstellation hinweist.
Hier wird Verhaltensanalyse zur Voraussetzung, um KI-Nutzung zu ermöglichen, ohne unkontrollierte Risiken einzugehen. Nur wer normale Aktivitätsmuster präzise modelliert, kann Abweichungen erkennen, die über das Übliche hinausgehen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Sichtbarkeit als Grundlage
Hat die Sicherheit also den Anschluss an die Geschwindigkeit der KI-Adoption verloren? In vielen Fällen lautet die Antwort: Ja – nicht, weil Unternehmen KI einschränken wollen, sondern weil sich Governance-Modelle nicht im gleichen Tempo weiterentwickelt haben. Kontrolle bedeutet nicht, jede Nutzung zu verhindern. Es bedeutet, Datenbewegungen nachvollziehen und bewerten zu können. Der State of AI Cybersecurity Report 2026 zeigt, dass Unternehmen das Ausmaß des Problems erkannt haben. Die operative Umsetzung bleibt jedoch eine Herausforderung.
Wer generative und agentische Systeme als isolierte Werkzeuge betrachtet, unterschätzt ihre Auswirkungen auf die Datenarchitektur. Wer sie als eigenständige, kontextabhängige Akteure versteht, stellt die richtigen Fragen: Welche Daten verlassen das Unternehmen? In welchem Umfang? In welchen Mustern? Und mit welchem Grad an Transparenz?
Die eigentliche Veränderung liegt nicht in der Technologie selbst, sondern in der Art und Weise, wie Daten verarbeitet, kombiniert und delegiert werden. Sicherheit muss sich vom Gatekeeper zum Enabler entwickeln – indem sie Sichtbarkeit, Kontext und angemessene Schutzmechanismen bereitstellt, die eine souveräne Nutzung von KI im gesamten Unternehmen ermöglichen.