Unternehmen investieren in nie dagewesenem Tempo in Künstliche Intelligenz (KI). Kaum ein Geschäftsbereich bleibt von Automatisierung, Generierung oder Analyse durch KI unberührt. Doch dieser Innovationsmotor entwickelt sich zunehmend zu einer Sicherheitsherausforderung: Der Wettlauf um Produktivität und Effizienz bringt neue Schwachstellen hervor, die klassische Schutzmechanismen überfordern.
Der Autor: John Mutuski ist Chief Information Security Officer (CISO) bei Pipedrive
(Bild: Pipedrive)
Nicht nur werden die jüngsten Sicherheitsverletzungen, wie bei Adidas oder Tea, mit der Integration von KI-Tools in Verbindung gebracht, sondern Angreifer nutzen nun selbst Künstliche Intelligenz, indem sie promptbasierte Angriffe und KI-Agenten einsetzen, um diese neuen Schwachstellen auszunutzen.
Der Innovationsdruck als Sicherheitsrisiko
Die Spannung zwischen Innovationsgeschwindigkeit und Sicherheit war noch nie so groß wie heute. Unternehmen wollen den Effizienzgewinn der KI nutzen, übersehen dabei jedoch oft, dass jede neue Funktion, jede API und jeder Agent die Angriffsfläche erweitern. Das Tempo der KI-Integrierung sorgt für einen Verlust der strategischen Kontrolle. Jedoch stehen viele Unternehmen unter einem enormen Wettbewerbsdruck, weshalb sie oft befürchten, als „veraltet“ zu gelten, wenn sie nicht schnell genug KI-Funktionen anbieten.
Beispielsweise erwarten Marketing- und Produktteams schnelle Integrationen, um Kundenerlebnisse zu verbessern oder Prozesse zu beschleunigen. Dabei kann häufig „Sicherheitshygiene“ geopfert werden: Teams umgehen möglicherweise Code-Reviews oder Sicherheitsfreigaben, um Release-Zyklen einzuhalten. Die kurzfristige Produktivitätssteigerung steht über der langfristigen Resilienz. Diese Dynamik erinnert an die Frühphase der Cloud-Transformation, in der Geschwindigkeit ebenfalls Vorrang vor Governance hatte. Auch in diesem Fall entstehen die bekannten Konsequenzen: Fehlkonfigurationen, Datenlecks und schwer nachzuvollziehende Zugriffsrechte.
Vibe Coding – wie KI neue Angriffsflächen schafft
Ein neues Phänomen, das in Entwicklerkreisen zunehmend diskutiert wird, ist das sogenannte Vibe Coding. Dabei werden Code-Vorschläge von KI-Systemen direkt übernommen, ohne gründliche Überprüfung der zugrunde liegenden Logik. Der Code „funktioniert“, erfüllt also den unmittelbaren Zweck, enthält aber häufig unsichere Implementierungen oder unzureichende Validierungen. KI-gestützte Entwicklung ist ein Beschleuniger, aber sie hat auch Fehler beschleunigt. Das Problem ist nicht, dass der Code falsch ist, sondern dass er unbewusst neue Angriffsvektoren schafft. Wenn mehrere Teams parallel mit KI-Tools arbeiten, entsteht ein Flickenteppich aus unkontrollierten Skripten und Modellen. Die Folge: Sicherheitsarchitekturen, die auf klar definierten Verantwortlichkeiten basieren, geraten ins Wanken. KI wird zum Schattenentwickler und niemand kann mehr genau nachvollziehen, welche Datenflüsse oder API-Verbindungen bestehen.
Parallel dazu entwickelt sich eine völlig neue Bedrohungskategorie: Prompt-basierte Angriffe. Dabei nutzen Angreifer gezielt die Schwächen großer Sprachmodelle aus, um sie zu manipulieren oder sensible Daten zu extrahieren. In der Praxis reicht mitunter ein präparierter Text oder ein scheinbar harmloser Kundeneintrag, um ein KI-gestütztes System dazu zu bringen, vertrauliche Informationen preiszugeben oder ungewollte Aktionen auszuführen. Besonders gefährlich sind diese Angriffe, wenn KI-Agenten mit System- oder CRM-Zugriff arbeiten. Sobald ein KI-Agent Entscheidungen trifft oder Aktionen ausführt, etwa Datensätze ändert oder E-Mails verschickt, wird aus einem Prompt eine potenzielle Ausbeutung. Die Angriffslogik verlagert sich von der Codeebene in die Sprachebene. Diese Entwicklung zwingt Sicherheitsabteilungen, ihre Denkweise zu ändern. Klassische Angriffserkennung auf Basis von Signaturen oder Netzwerkverkehr greift zu kurz, wenn die Manipulation in der Kommunikation zwischen Mensch und Modell erfolgt.
Wenn Angreifer selbst KI einsetzen
Auch auf der Gegenseite schreitet die Automatisierung voran. Angreifer nutzen zunehmend KI-Tools, um ihre eigenen Prozesse zu skalieren. Dies reicht vom Schreiben glaubwürdiger Phishing-Mails bis hin zum Testen von Sicherheitslücken. LLM-basierte Angriffsagenten können gezielt Unternehmenssysteme „abtasten“ und Schwachstellen auf sprachlicher oder logischer Ebene erkennen. Damit entsteht ein asymmetrisches Risiko: Während Unternehmen versuchen, KI sicher zu implementieren, experimentieren Angreifer bereits mit autonomen Angriffssystemen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die wichtigsten Grundsätze zur sicheren KI-Integration
Was bedeutet das für Unternehmen, die KI in produktiven Prozessen einsetzen wollen? Es führt kein Weg daran vorbei, dass eine systematische Sicherheitsarchitektur speziell auf KI-Modelle zugeschnitten werden muss. Dabei gilt es, wichtige Grundsätze zu beachten. Es muss Transparenz über die Modellnutzung herrschen, denn Schatten-KI, also die unbefugte Nutzung von generativer KI wie ChatGPT, ist eine der größten Gefahren. Für Unternehmen bedeutet das, dass jede Abteilung, die KI nutzt, offenlegen sollte, welche Modelle, APIs und Datenquellen zum Einsatz kommen.
Bei der Nutzung von KI ist vor allem die strikte Zugriffskontrolle für KI-Agenten zu beachten. KI-Systeme dürfen niemals mit uneingeschränkten Rechten arbeiten, was die Einführung von granularen Rollen und „Least Privilege“-Prinzipien zur Pflicht macht. Die Eingaben in generative Systeme müssen auf Anomalien geprüft werden. Einfache Blacklists zur Prompt-Validierung reichen nicht aus. Es benötigt einen adaptiven Content-Filter, der semantische Manipulationen erkennen kann.
Außerdem sollten sich Unternehmen über die Dokumentation der KI-Nutzung Gedanken machen. Dabei geht es nicht um Micro-Managing des Teams. Vielmehr geht es darum, KI-gestützte Entscheidungen nachvollziehen zu können, um sie auch Kunden zu erklären. Das trifft insbesondere zu, wenn Entscheidungen Auswirkungen auf Kundendaten oder operative Systeme haben. Zuletzt müssen grundlegende Sicherheitspraktiken und eine gute Cyberhygiene im Team gefördert werden. Entwickler und Produktteams müssen verstehen, dass KI an sich kein Sicherheitsersatz ist. Wer Modelle trainiert oder Prompts schreibt, ist immer noch für den Schutz sensibler Daten verantwortlich.
Sichere KI-Implementierung ist eine Voraussetzung für nachhaltige Innovation, denn Unternehmen, die Sicherheit frühzeitig in ihre KI-Angebote integrieren, stärken das Vertrauen, das sie bereits bei ihren Kunden aufgebaut haben, und sichern die langfristige Widerstandsfähigkeit ihrer Plattform. Schnelligkeit muss nicht mit Nachlässigkeit gleichgesetzt werden. In Zukunft wird sich die Wettbewerbsfähigkeit von Organisationen daran messen, wie gut sie diese Balance beherrschen. Wer KI verantwortungsvoll einsetzt, kann ihre Vorteile nutzen, ohne die Integrität der Systeme zu gefährden. Diejenigen, die es blind integrieren, bauen eine Sicherheitszeitbombe in ihr Produkt ein. Eine, die explodieren wird, sobald diese Sicherheitsschwächen ausgenutzt werden.