Generative Künstliche Intelligenz (KI; GenAI) hat die Unternehmenswelt längst erreicht, sodass immer mehr Unternehmen dazu übergehen, eigene KI-Projekte zu starten. Die Herausforderung besteht jedoch darin, vom Projekt zur Produktion voranzuschreiten, ein wesentlicher Hinderungsgrund ist dabei die Absicherung der KI-Modelle.
Der Autor: Michael „MiZu“ Zunke ist CTO Software Monetization bei Thales
(Bild: Zunke, Michael)
Nichts ist schlimmer als halluzinierende KI, beispielsweise bei Investitionsentscheidungen oder bei der Analyse von Kundendaten. Weitere Herausforderungen ergeben sich hinsichtlich des Datenschutzes und der Datensicherheit. Risiken bestehen insbesondere bei Software, die für Kunden und Partner zugänglich ist. SaaS-Software und -Dienste, die in der Cloud ausgeführt werden, sind dagegen weniger gefährdet, da Angreifer keinen direkten Zugriff auf die Software oder das Sprachmodell haben.
Wenn Software jedoch auf Kundengeräten installiert wird, ist sie verschiedenen Tools ausgesetzt, die eine Analyse und Änderung ihres Codes und der Verwendung der KI-Modelle ermöglichen. Unter diesen Werkzeugen befinden sich Disassembler und Dekompilierer für die statische Dateianalyse oder Debugger für die Laufzeitverfolgung im Code und Analyse-Tools, um sich neuronale Netze im Detail anzusehen, bzw. zu extrahieren.
Die drei wichtigsten Gefahren für KI-Tools
Zu den drei wichtigsten Gefahren für KI-Tools zählen der Diebstahl des gesamten Modells, die Manipulation von Modellen und weiterhin auch Angriffe auf die Applikation selbst, die intern auf Maschine Learning setzt, um neue Möglichkeiten zu bieten.
1. Diebstahl von KI-Modellen
Läuft ein KI-Modell in einer vom Kunden kontrollierten Umgebung, können mehrere Angriffsvektoren zu dessen Diebstahl oder unbefugter Nutzung führen. Ein gängiges Risiko ist die Softwarepiraterie, bei der nicht autorisierte Kopien der Software verbreitet und ohne gültige Lizenz verwendet werden. Ein anderer, schwieriger zu entdeckender Angriff besteht darin, das KI-Modell aus der Anwendung zu extrahieren, um es in einer anderen Software zu verwenden. Denkbar wäre, dass beispielsweise ein direkter Konkurrent dann vom Wissen und Training eines KI-Modells profitiert. Für das betrogene Unternehmen wäre der finanzielle Schaden immens.
2. KI-Modellmanipulationen
Ohne angemessene KI-Sicherheit ist die Modellintegrität gefährdet und könnte in jeder Phase – bei der Anwendungsbereitstellung, bei Modellaktualisierungen oder nach der Installation – von böswilligen Akteuren beeinträchtigt werden. Die Gefahr wird als so ernst angesehen, dass sie sogar in die OWASP Top Ten für Large Language Models (LLM) aufgenommen wurde. Zum einen handelt es sich um Model Poisoning Attacks, bei denen das ursprüngliche Modell durch eine modifizierte Version ersetzt wird. Zum anderen geht es um Transfer-Learning-Angriffe, bei denen ein anderes Modell das erwartete Verhalten nachahmt, aber unter bestimmten Bedingungen bösartig arbeitet.
Solche Angriffe erfordern Kenntnisse über die Schnittstellen des Modells, die dem Angreifer nur durch Reverse Engineering bekannt wären. Durch eine Analyse der Software können Angreifer ein gefälschtes Modell erstellen, das sich nahtlos einfügt und das ursprüngliche Modell ersetzt.
3. Angriffe auf Machine-Learning-Anwendungen
Angreifer können auch das Verhalten einer Machine-Learning-gestützten (ML) Anwendung manipulieren, anstatt direkt das Modell selbst anzugreifen. ML-Anwendungen verarbeiten Eingabedaten, formatieren sie für das Modell und verarbeiten die Ausgaben des Modells, um sie dem Nutzer zuliefern, oder auch an ein anderes Modell weiter zu reichen. Das macht es anfällig für Input- und Output-Integritätsangriffe, die Daten verändern, bevor sie das ML-Modell erreichen oder deren Ausgabe verändern. Anwendungen, die nicht gegen Reverse Engineering und unbefugte Änderungen geschützt sind, sind oft sehr einfach zu manipulieren.
Drei wichtige Maßnahmen zum Schutz von KI-Modellen und ML-Anwendungen
1. Modellverschlüsselung und Plattformkompatibilität
Um sicherzustellen, dass nur die eigene Anwendung das Modell verwenden kann, sollten Unternehmen es verschlüsseln. Eine starke Verschlüsselung verhindert unbefugte Änderungen und macht gestohlene Modelle für Angreifer unbrauchbar. Wenn man dann dafür sorgt, dass nur die berechtigte Applikation dieses Modell entschlüsseln und nutzen kann, eliminiert man schon Angriffe durch das „Unterschieben“ eines modifizierten Modells.
2. Anwendungsschutz
Darüber hinaus lässt sich die Anwendung schützen. Das schließt Binärdateien, Dynamic Link Libraries (DLLs), Java/.NET-Anwendungen und Python-Skripte mit ein. Spezialisierte Sicherheitstools können die Originaldatei in eine geschützte Version umwandeln und damit gleich mehrere Sicherheitsebenen einbetten, die Codeanalysen verhindern und -änderungen abwehren.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
3. Sichere und flexible Lizenzierung
Als dritte Maßnahme empfiehlt sich eine sichere und anpassungsfähige Lizenzierungslösung. Das ermöglicht Anpassungen des Geschäftsmodells, ohne dass die Lizenzierungsimplementierung der Anwendung geändert werden muss. Die Einführung kostenpflichtiger Abonnements oder kostenloser Testversionen sollte beispielsweise keine umfangreichen Codeänderungen und Tests erfordern. Wenn diese Lizenzierung auch noch den Einsatz der Verschlüsselung des Models und der Applikation erlaubt, schließt sich das Ganze zu einem homogenen System.
Schlussfolgerung
Die Absicherung von KI-Code ist nicht nur eine technische Herausforderung, sondern auch eine strategische Entscheidung, um zukünftige Geschäftsmodelle zu schützen. KI-Modelle können den vielleicht entscheidenden Wettbewerbsvorteil ausmachen. Ihr Schutz und die Sicherheit der auf sie aufsetzenden Anwendungen sowie ihre Lizenzierung sorgen für Systemintegrität, Umsatzsicherung und Marktführerschaft. Durch die Kombination von Verschlüsselung, Codeschutz und sicherer Lizenzierung lassen sich Angriffe abwehren, Risiken minimieren und Unternehmen behalten gleichzeitig die volle Kontrolle über ihre digitalen Assets.