Von rationalisierten Abläufen bis zur verbesserten Kundenbindung durch personalisierte Erlebnisse ist KI ein Werkzeug für moderne Unternehmen. In dem Maße, in dem Unternehmen sich aber zunehmend auf KI verlassen, müssen sie sich auch einer wachsenden und komplexen Anzahl von Herausforderungen im Hinblick auf Cybersecurity-Herausforderungen stellen.
Kompromittierte KI-Modelle können im gesamten Unternehmen Schaden anrichten und zu finanziellen Verlusten, Rufschädigung und behördlichen Strafen führen.
(Bild: frank29052515 - stock.adobe.com)
Künstliche Intelligenz (KI) revolutioniert die Geschäftswelt und bietet vielfältige Möglichkeiten für Innovation, Effizienz und Wettbewerbsvorteile. KI-Modelle selbst werden allerdings zunehmend zu einem Ziel für Cyber-Kriminelle. Sie verschaffen sich Zugang zu sensiblen Daten und geistigem Eigentum in Netzwerken – und können so sogar Entscheidungsprozesse manipulieren.
KI: ein zweischneidiges Schwert
Die Fähigkeit von künstlicher Intelligenz, Prozesse zu automatisieren und zu optimieren, ist auch böswilligen Akteuren nicht verborgen geblieben. Cyber-Kriminelle nutzen KI, um ausgeklügelte Angriffe zu entwickeln, beispielsweise KI-gesteuertes Phishing, polymorphe Malware und modern persistente Bedrohungen. KI ist in der Lage, realistische Social-Engineering-Angriffe zu entwickeln, die das menschliche Verhalten manipulieren. Damit ist es für traditionelle Cybersecurity-Maßnahmen schwierig, diese Bedrohungen zu erkennen und zu entschärfen.
Einer der bedenklichsten Trends ist der Angriff auf KI-Modelle selbst. Sind diese Modelle einmal infiltriert, dienen sie beispielsweise als Einfallstor für das gesamte digitale Ökosystem eines Unternehmens. Cyber-Kriminelle sind in der Lage, KI-Modelle zu manipulieren. So können sie falsche Daten erzeugen, Prozesse korrumpieren und die Qualität von Geschäftsentscheidungen beeinträchtigen. Kompromittierte KI-Modelle können im gesamten Unternehmen Schaden anrichten und zu finanziellen Verlusten, Rufschädigung und behördlichen Strafen führen.
KI-Modelle lassen sich in verschiedenen Phasen ihres Lebenszyklus angreifen: Während der Entwicklung, des Trainings, der Inferenz und im Einsatz. Übliche Angriffsvektoren sind:
Bei Umgehungsangriffen nehmen Cyber-Kriminelle subtile Änderungen an den Eingabedaten vor. Diese veranlassen das KI-Modell, falsche Vorhersagen oder Klassifizierungen vorzunehmen. So könnte beispielsweise eine geringfügige Änderung einer Finanztransaktion Betrugserkennungssysteme austricksen.
Inferenzangriffe treten auf, wenn Cyber-Kriminelle das KI-Modell wiederholt abfragen, um Informationen über seine interne Funktionsweise zu sammeln. Sie rekonstruieren das Modell oder extrahieren sensible Daten
Vergiftungsangriffe bestehen darin, dass bösartige Daten in den Trainingsdatensatz eingespeist werden. Dadurch erlernt das KI-Modell falsche Muster. Dies kann zu Modellen führen, die schlecht funktionieren oder voreingenommene Entscheidungen treffen.
Bei Backdoor-Angriffen schleusen Angreifer während der Entwicklung eines KI-Modells versteckte Auslöser ein. Werden diese Auslöser aktiviert, verhält sich das Modell auf eine vorher festgelegte bösartige Weise.
Was steht für Unternehmen auf dem Spiel?
Die Auswirkungen von Angriffen gegen KI-Modelle sind tiefgreifend. Ein infiltriertes KI-Modell in einem Finanzinstitut könnte beispielsweise betrügerische Transaktionen genehmigen und so zu erheblichen finanziellen Verlusten führen. Im Gesundheitswesen besteht die Gefahr, dass kompromittierte KI-Modelle Fehldiagnosen bei Patienten stellen. Das Ergebnis wären gefährdete Patientenleben und verletzte Vorschriften wie HIPAA. In der Fertigung hingegen könnten manipulierte KI-Modelle Lieferketten unterbrechen und zu Verzögerungen und finanziellen Rückschlägen führen.
Auch die Integrität von Entscheidungsprozessen ist gefährdet. KI-Modelle dienen oft als Grundlage für wichtige Geschäftsentscheidungen. Kompromittierte Modelle können falsche Erkenntnisse liefern und Führungskräfte somit zu falschen Entscheidungen verleiten. Die langfristigen Auswirkungen auf das Vertrauen in das Unternehmen, sowohl intern als auch extern, lassen sich nicht hoch genug einschätzen.
Verteidigung gegen KI-Bedrohungen
Um sich vor diesen sich entwickelnden Bedrohungen zu schützen, müssen Unternehmen einen proaktiven und vielseitigen Ansatz für die KI-Sicherheit wählen. Hier sind einige wichtige Strategien:
Security by Design
Es ist enorm wichtig, Security-Maßnahmen bereits während der Entwurfs- und Entwicklungsphase von KI-Modellen zu integrieren. Techniken wie differentieller Datenschutz, homomorphe Verschlüsselung und sichere Berechnungen mit mehreren Beteiligten können sensible Daten und Modellparameter schützen. Werden diese Maßnahmen von Anfang integriert, ist gewährleistet, dass Security integraler Bestandteil des KI-Modells ist und nicht erst im Nachhinein berücksichtigt wird.
Kontinuierliche Kontrolle und Wartung
KI-Modelle sind nicht statisch; sie entwickeln sich im Laufe der Zeit weiter, denn sie lernen weiter, wenn sie mit neuen Daten „gefüttert“ werden. Eine kontinuierliche Kontrolle hinsichtlich Anomalien und Schwachstellen ist daher unerlässlich. Systeme, die Bedrohungen in Echtzeit erkennen, kann dazu beitragen, Risiken zu identifizieren und abzuschwächen, bevor sie größeren Schaden anrichten.
Training mit Angreifern
KI-Modelle werden robuster, wenn sie während der Trainingsphase einer Vielzahl von Angriffsszenarien ausgesetzt sind. Durch die Simulation von Angriffen lassen sich Schwachstellen erkennen und die Modelle entsprechend stärken. Das Training mit Angreifern trägt dazu bei, dass die KI-Modelle realen Bedrohungen standhalten.
Red Teaming
Red Teaming simuliert reale Cyber-Angriffe, um zu testen, wie wirksam Sicherheitsmaßnahmen sind. Indem sie sich in die Denkweise eines Angreifers versetzen, decken Red Teams Schwachstellen auf, die bei routinemäßigen Sicherheitsbeurteilungen möglicherweise nicht auffallen. Dies unterstützt Unternehmen dabei, neuen Bedrohungen einen Schritt voraus zu sein.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Sicherheit von KI-Modellen sollte nicht von umfassenderen Enterprise Security-Initiativen isoliert werden. Die Integration von KI-Sicherheit in bestehende Cybersecurity-Frameworks gewährleistet eine ganzheitliche und kohärente Verteidigungsstrategie. Dazu gehört auch die Abstimmung der KI-Security mit Zugriffskontrollen, Reaktionsplänen auf Vorfälle und Datenschutzprotokollen.
KI als Schutz gegen Cyber-Angriffe einsetzen
Genauso wie Cyber-Kriminelle KI nutzen, um Angriffe zu starten, können Unternehmen KI einsetzen, um ihre Verteidigung zu stärken. KI-gesteuerte Cybersecurity-Lösungen erkennen Bedrohungen automatisiert, analysieren große Mengen an Sicherheitsdaten und reagieren auf Vorfälle in Echtzeit. KI erkennt so beispielsweise ungewöhnliche Verhaltensmuster, die auf eine Sicherheitsverletzung hindeuten – und gewährleisten so, dass Sicherheitsteams schnell handeln.
KI verbessert die Sicherheit, indem sie prädiktive Erkenntnisse liefert. Die Technologie ermöglicht es Unternehmen, potenziellen Bedrohungen proaktiv zu begegnen. Der Einsatz von KI ermöglicht Firmen, eine aktive Cybersecurity zu verfolgen und böswilligen Akteuren immer einen Schritt voraus sein.
Die Absicherung von KI-Modellen ist nicht nur ein technologischer Imperativ, sondern auch eine geschäftliche Notwendigkeit. Da KI Innovationen und betriebliche Effizienz vorantreibt, ist eine robuste KI-Sicherheit enorm wichtig. Cyber-Kriminelle nutzen auch in Zukunft Schwachstellen aus, und Organisationen müssen beim Schutz ihrer KI-Ressourcen wachsam sein.
Mit einem umfassenden Ansatz für KI-Sicherheit sind Unternehmen in der Lage, ihre wertvollen Daten zu schützen. Gleichzeitig lässt sich die Integrität ihrer Entscheidungsprozesse gewährleisten und das Vertrauen ihrer Stakeholder aufrechterhalten. In einer Zeit, in der KI sowohl ein Wachstumskatalysator als auch ein Ziel für Cyber-Bedrohungen ist, ist der Schutz von KI-Modellen die nächste Stufe der Cyber-Sicherheit.
Über den Autor: Balakrishna D.R., auch bekannt als Bali, ist Executive Vice President bei Infosys. Er leitet die Bereiche Industry Verticals sowie KI und Automatisierung weltweit. Er ist Mitglied und Sprecher in zahlreichen Branchenforen und -gremien, wie NASSCOM, CII, SPE, TM Forum, British High Commission-UK-India Tech Team und AI Governance in India und hält dort auch Vorträge. Er arbeitet mit einer Reihe von Universitäten und Start-ups zusammen. Darüber hinaus verfasst er auch Thought Leadership Papiere und Artikel über KI.