KI-Coding-Assistenten beschleunigen Releases, doch sie erzeugen ebenso blind vertrauten Code – inklusive halluzinierter Funktionen, unsicherer Abhängigkeiten und fehlender Transparenz. Wer die Vorteile nutzen will, braucht verbindliche Richtlinien, Reviews und Schulungen sowie technische Kontrollen von SAST bis IDE-Scanning, Sandboxing und API-Schutz.
KI-Coding liefert Tempo, aber auch Schwachstellen. Richtlinien, Reviews und Security-Tests von IDE-Scanning bis Sandboxing machen den Code belastbar.
KI-generierter Code ist längst kein Randphänomen mehr, sondern integraler Bestandteil moderner Entwicklungsprozesse. KI-Coding-Tools wie GitHub Copilot oder Amazon Q sind mittlerweile Alltag in der Softwareentwicklung – oft ohne offizielle Genehmigung und fast immer ohne klare Richtlinien. Für CISOs und Sicherheitsverantwortliche birgt das erhebliche Risiken: Jede neue Codezeile kann potenziell zur Schwachstelle werden.
Der The Future of AppSec in the Era of AI-Report von Checkmarx zeigt: Fast 70 Prozent der befragten CISOs, AppSec-Manager und Entwickler gehen davon aus, dass im Jahr 2024 bereits mehr als 40 Prozent des Codes in ihren Unternehmen von KI geschrieben wurde – rund 45 Prozent schätzen den Anteil sogar auf bis zu 60 Prozent. Zu ähnlichen Ergebnissen kommt der Stack Overflow Developer Survey 2024: Demnach nutzen inzwischen 76 Prozent der Entwickler KI-Tools in ihrer täglichen Arbeit. KI-Tools erleichtern Entwicklern die Arbeit spürbar – doch der Effizienzgewinn bringt zugleich erhebliche Sicherheitsrisiken mit sich, die Unternehmen keinesfalls unterschätzen sollten.
KI-Coding-Assistenten wie GitHub Copilot, Gemini Code Assist, Cursor oder Amazon Q Developer beschleunigen die Softwareentwicklung erheblich – ersetzen aber keine integrierten Sicherheitsfunktionen. Selbst die Anbieter betonen, dass ergänzende Tests und Tools unverzichtbar bleiben.
Wer davon ausgeht, dass KI-generierter Code automatisch sicher ist, wiegt sich in falscher Sicherheit. Im Gegenteil: Halluzinierter Code, Prompt Injections oder fehlende Transparenz über Trainingsdaten der Assistenten und Schwachstellen schaffen neue Risiken. Auch manuelle Code-Reviews stoßen hier schnell an Grenzen.
Eine Analyse aus dem Jahr 2024 zu Sicherheitslücken in von Copilot-generiertem Code aus GitHub-Projekten zeigt, wie real diese Gefahren sind. Im Rahmen der Studie wurden 733 Code-Snippets analysiert. Das Ergebnis: 29,5 Prozent der Python- und 24,2 Prozent der JavaScript-Snippets enthielten Sicherheitslücken, darunter XSS und fehlerhafte Eingabevalidierung.
Die Wahrheit ist simpel: KI-generierter Code ist nicht per se sicherer als von Menschen geschriebener Code. Der Unterschied liegt in Tempo, Volumen und dem Vertrauen, das Entwickler den Tools entgegenbringen – und genau das kann zur Falle werden.
Ein zentrales Problem besteht darin, dass KI-generierter Code seltener gründlich geprüft wird. Viele Entwickler vertrauen den Vorschlägen der Tools blind – und übersehen dadurch Fehler und Sicherheitslücken. Studien zeigen, dass Programmierer mit KI-Unterstützung häufiger verwundbaren Code produzieren als ohne. Verantwortungsbewusstsein und Sorgfalt sinken, weil die Logik hinter den KI-Vorschlägen oft intransparent bleibt.
Das Ergebnis: Ein trügerisches Sicherheitsgefühl, weniger Review-Aufwand – und mehr Risiken für Unternehmen. Um gegenzusteuern, braucht es Prüfprozesse und Tools, die speziell auf KI-generierten Code zugeschnitten sind.
CISO-Strategien für den sicheren Umgang mit KI-generiertem Code
Vor etwas mehr als zehn Jahren versuchten viele CISOs, Tools wie Dropbox oder Google Drive zu verbieten, um Datenlecks zu verhindern – erfolglos. Die Anwendungen wanderten in den Schatten-IT-Bereich, bis klar wurde: Nicht Verbote, sondern Governance ist der Schlüssel.
Ähnlich verhält es sich heute mit KI-Coding-Tools. Ihr Einsatz lässt sich schwer unterbinden, wohl aber absichern. Dafür brauchen CISOs eine mehrschichtige Strategie, die technische Echtzeitkontrollen mit klarer Governance verbindet.
Governance-Kontrollen ermöglichen Unternehmen, den Einsatz von KI verantwortungsvoll und skalierbar zu steuern. Sie definieren klare Grenzen, Richtlinien und Verantwortlichkeiten über Entwicklungs-, Sicherheits- und Compliance-Teams hinweg. Viele dieser Maßnahmen sind bereits bei manuell geschriebenem Code üblich – mit KI gewinnen sie jedoch noch stärker an Bedeutung.
Was Sicherheitsverantwortliche tun sollten:
1. Granulare Richtlinien zur Nutzung von KI-Code definieren: CISOs sollten klare Vorgaben für den Einsatz von KI-Coding-Tools etablieren. Dazu gehört, festzulegen, welche Tools in welchem Umfang genutzt werden dürfen und für welche Use Cases sie geeignet sind. Ebenso wichtig sind Transparenz über KI-generierten Code, Einschränkungen bei sicherheitskritischen Komponenten sowie verpflichtende Peer Reviews, um Qualität und Sicherheit zu gewährleisten.
2. Umfassende Security Review-Prozesse etablieren: Für KI-generierten Code braucht es einen verbindlich geregelten Review-Prozess. Dazu gehören definierte Schwellenwerte, ab wann ein Review Pflicht ist, sowie die Integration in PR- und CI/CD-Workflows. Geschulte AppSec-Reviewer oder Peer-Entwickler sollten prüfen, ob der Code gängige Sicherheitsstandards wie beispielsweise die OWASP Top 10 erfüllt. Entscheidend ist, dass Reviews über reine Funktionsprüfungen hinausgehen und auch Themen wie Eingabeverarbeitung, Datenbereinigung und die Vergabe von Berechtigungen abdecken.
3. In Trainingsangebote für Entwickler investieren: Unternehmen sollten ihre Entwickler gezielt schulen, um die speziellen Risiken von KI-Coding-Tools zu verstehen. Dazu gehört, wie KI-Modelle Code erzeugen, welche Sicherheitslücken häufig entstehen und wie generierte Snippets kritisch bewertet werden. Entwickler lernen so, die Grenzen von KI-Vorschlägen zu erkennen, Logikpfade zu prüfen und sichere Entscheidungen zu treffen. Kontinuierliche, rollenbezogene Schulungen, idealerweise direkt in die Entwickler-Workflows integriert, festigen dieses Bewusstsein nachhaltig.
4. Funktionsübergreifende Verantwortlichkeiten schaffen: CISOs sollten formale Verantwortlichkeitsrahmen etablieren, die AppSec, DevOps und Compliance vereinen. Dazu gehören gemeinsame KPIs, nachvollziehbare Prüfpfade für generierten Code und regelmäßige bereichsübergreifende Assessments zur Einhaltung der Richtlinien. Im Hinblick auf die Unternehmenskultur bedeutet das, Verantwortung zu teilen: Entwickler verstehen Compliance-Anforderungen, und Sicherheitsteams unterstützen kontextbezogen und kollaborativ.
Technische Kontrollen ergänzen Governance-Maßnahmen, indem sie auf automatisierte und skalierbare Lösungen setzen, die nahtlos in Entwicklungspipelines integriert sind. Sie bauen auf bestehenden Sicherheitstools auf, legen den Fokus auf kritische Systeme und tragen messbar zur Risikoreduzierung bei – ohne sich in übermäßig detaillierten Konfigurationen zu verlieren:
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
1. Automated Security Testing: AST-Tests wie SAST, DAST, API-Security und SCA erkennen bekannte Schwachstellen im Code, unsichere Abhängigkeiten und Fehlkonfigurationen im gesamten SDLC. Allein reichen sie nicht aus, um KI-generierten Code vollständig abzusichern, bilden aber die unverzichtbare Basis jeder AppSec-Strategie.
2. AI Secure Coding Assistants: AI Secure Coding Assistants unterstützen Entwickler beim sicheren Umgang mit KI-generiertem Code, indem sie unsichere Muster in Echtzeit erkennen und sichere Alternativen vorschlagen. Sie geben kontextbezogene Hinweise während des Schreibens, markieren potenzielle Risiken direkt in der IDE und decken Schwachstellen wie unsichere Verarbeitung des Inputs oder Standardwerte auf. So erhalten Entwickler sofortiges Feedback, noch bevor der Code übermittelt wird. Anders als SAST, das ganze Anwendungen nach dem Commit prüft, legt IDE-Scanning den Fokus auf einzelne Codeblöcke, beschleunigt den Feedback-Zyklus und macht KI zu einem aktiven Sicherheitspartner statt nur einem Coding-Assistenten.
3. Frühzeitiges Feedback für Entwickler: Unternehmen sollten dedizierte Tools implementieren, die Entwicklern sicherheitsrelevantes Feedback so früh wie möglich zur Verfügung stellen – idealerweise direkt beim Schreiben des Codes oder spätestens im Pull-Request. Automatisierte Prüfungen auf unsichere Muster, Abhängigkeiten oder Policy-Verstöße verhindern dabei, dass fehlerhafter oder riskanter Code ins Repository gelangt.
4. Weitere KI-Tools: KI-Coding-Assistenten schlagen mitunter unsichere Open-Source-Pakete vor. Hier hilft Software Composition Analysis (SCA), indem sie riskante Abhängigkeiten identifiziert und auf sichere Alternativen verweist – oder zumindest Transparenz über die Risiken schafft. Anbieter integrieren immer öfter Sicherheitsfunktionen direkt in gängige KI-Tools, sodass Entwickler schon während der Nutzung von Copilot & Co. Hinweise auf potenziell unsichere Pakete oder Schwachstellen erhalten.
5. Testlauf in abgeschotteten Umgebungen: Bevor KI-generierter Code in Produktionsumgebungen gelangt, wird er zunächst mittels Sandboxing und Containerisierung in isolierten Umgebungen getestet. Das begrenzt mögliche Schäden durch bösartige Logik, fehlerhafte Implementierungen oder unvorhergesehene Nebeneffekte – und schafft eine zusätzliche Schutzschicht, die klassische AST- oder IDE-Scans allein nicht leisten.
6. API-Sicherheit: APIs sind besonders anfällig für Risiken durch KI-generierten Code, da sie exponierte Einstiegspunkte in kritische Systeme darstellen. KI-Tools können fehlerhaften Code erzeugen, etwa durch unsichere Implementierungen oder fehlerhafte Authentifizierungsabläufe. API-Sicherheitstools reduzieren diese Gefahren mittels automatisierter Schwachstellenerkennung, Überwachung von Traffic und Anomalien sowie KI-gestützter Angriffserkennung. Diese Tools gewährleisten starke Authentifizierung, validieren Eingaben und schützen die Geschäftslogik – ein zentraler Kontrollpunkt gegen KI-bedingte Sicherheitsrisiken.
Fazit: Fluch oder Segen?
KI-generierter Code ist längst Realität. Er steigert die Produktivität, bringt aber auch neue Risiken mit sich – und beides muss gleichermaßen berücksichtigt werden. Mit einer durchdachten Kombination aus Governance und technischen Kontrollen können CISOs sicherstellen, dass ihre Teams die Vorteile von KI-Coding-Tools nutzen können, ohne die Sicherheit zu gefährden. Unternehmen, die KI verantwortungsvoll in Entwicklungsprozesse integrieren, sichern langfristig nicht nur ihre Software, sondern auch ihre Wettbewerbsfähigkeit.
Über den Autor: Patrick Siffert ist Regional Director DACH & Iberia bei Checkmarx.