Weil die Angriffe mit gegnerischer KI auf Unternehmen zugenommen haben, setzen diese verstärkt auf stochastische Verteidigung und Sicherheit durch Security-by-Design-Prozesse. So schützen sie ihre eigenen KI-Ökosysteme.
Der Autor: Scott Zoldi ist Chief Analytics Officer bei FICO
(Bild: FICO)
Besonders, wenn es um die militärische Anwendung von KI geht – etwa beim Einsatz autonom agierender Kampfdrohnen – flammen auch in der Gesellschaft Diskussionen über Künstliche Intelligenz und Ethik auf. Doch es muss gar nicht um Leib und Leben gehen, um sich kritisch mit KI sowie ihren Möglichkeiten und (auch moralischen) Grenzen auseinanderzusetzen.
KI-Engines werden mit Unsinn manipuliert
Immer häufiger wird KI zum Beispiel auch von Cyberkriminellen für automatisierte Attacken verwendet. Sei es, um Angriffe zu optimieren und finanzielle oder erpresserische Ziele zu verfolgen. Oder um die KI-Systeme der Opfer zu unterwandern und diese zu stören. Aktuell berichten immer mehr KI-Verantwortliche, dass sie es bereits mit einem oder mehreren KI-unterstützen Angriffen zu tun hatten. Beispielsweise werden falsche oder manipulierte Datensätze aufwendig in die Datengrundlagen eingespeist, von denen KI-Engines lernen. Das Resultat: Angreifer sorgen dafür, dass sich die angegriffenen KI-Systeme vor allem Unbrauchbares aneignen. Hier kommt schon die Ethik ins Spiel. Denn was tun, wenn KI-basierte Algorithmen irgendwann nur noch zu Empfehlungen aufgrund von Lügen und Manipulation gelangen? Wer trägt dann die Verantwortung für teure oder gar gefährliche Fehlentscheidungen?
Bereits 30 Prozent berichten von KI-Attacken
Wie Entscheidungsträger die Situation bewerten und welche Maßnahmen sie für geeignet halten, den steigenden Herausforderungen zu begegnen, dem geht eine neue Studie auf den Grund: 30 Prozent der 100 befragten Führungskräften im Bereich KI berichten laut der Untersuchung „State of Responsible AI“ von FICO und Corinium, dass ihr Unternehmen bereits mindestens einmal durch feindliche KI angegriffen wurde. In der Vergleichsstudie aus dem vergangenen Jahr waren dies erst zwölf Prozent.
Bei gegnerischer KI (Adversarial Artificial Intelligence) handelt es sich um ein relativ neues Phänomen. Untersuchungen von FICO zeigen, dass Unternehmen die Tragweite dieser Angriffe durch eine gegnerische KI noch nicht vollständig erfassen. Und auch bei der Definition, was „Adversarial AI“ ausmacht, gibt es unterschiedliche Ansichten. Deshalb werden genauere Definitionen benötigt, um zu bestimmen, was gegnerische KI ausmacht. Strengen Definitionen zufolge handelt es sich um „Adversarial AI“, wenn ein Angreifer böswillig hochspezifische Daten in einen Algorithmus einspeist, eine Kopie des KI-Modells eines Unternehmens besitzt oder eine systematische Manipulation vornehmen kann.
Unternehmen, die sicherstellen wollen, dass sie KI verantwortungsbewusst einsetzen, sollten sich mit diesem Konzept vertraut machen. Denn die Firmen haben die Pflicht, die Privatsphäre ihrer Kunden zu schützen, indem sie deren Daten sicher aufbewahren und diese fair und im wirklichen Kundeninteresse nutzen.
So bekämpfen Führungskräfte feindliche KI
Die wichtigsten Ergebnisse der Studie im Überblick
(Bild: Corinium Intelligence, 2021)
Welche Methoden die Unternehmen jetzt einsetzen, um die Sicherheit ihrer KI-Modelle zu gewährleisten und diese vor gegnerischer KI oder anderen bösartigen Angriffen zu schützen, hat FICO in der neuesten Studie untersucht. Demnach nutzen diese hauptsächlich vier Ansätze:
65 Prozent der befragten Führungskräfte haben klar definierte Prozesse, um Zufallselemente in KI-Modelle einzubauen. Diese stochastische Verteidigung hilft, um sich vor bösartigen Angriffen zu schützen.
51 Prozent der Manager verfügen über eine Security-by-Design-Richtlinie sowie einen Überprüfungsprozess.
27 Prozent nutzen klare Prozesse für die Überwachung aller Daten, die der KI für die Verarbeitung zur Verfügung gestellt werden, um Angriffe durch gegnerische KI zu verhindern.
Schließlich prüfen und entfernen 17 Prozent der Unternehmen derzeit sensible Informationen aus realen Daten, bevor sie diese zum Trainieren von KI-Modellen verwenden.
In vielen Fällen sind die Prozesse, die Unternehmen für jede dieser Abwehrtechniken haben, jedoch informell und nicht klar definiert. „Data Poisoning“ oder andere gegnerische KI-Technologien grenzen sehr stark an das Thema Cybersicherheit. Ohne robuste Cybersicherheit dürfte es immer schwieriger werden, sich gegen feindliche KI zu schützen. Dies ist ein Bereich, in dem viele der Unternehmen nicht so weit sind, wie es notwendig ist. Da der Respekt vor den Wünschen der Kunden und das Recht auf Privatsphäre Grundpfeiler einer verantwortungsvollen Daten-, Analyse- und KI-Nutzung sind, sollten für KI zuständige Führungskräfte hier jedoch besonders sorgfältig vorgehen.
Auch eigene KI muss überwacht werden
Aber auch ohne die Gefahr durch externe Angreifer ist das Thema ethischer KI wichtig – und in der Praxis oft noch nicht auf dem Level, auf dem es sein sollte. Aktuell überwachen beispielsweise nur 20 Prozent der Befragten ihre KI-Modelle im Betrieb aktiv auf Fairness und Ethik. Weniger als ein Viertel der Führungskräfte (22 Prozent) gibt an, dass ihr Unternehmen über ein KI-Ethikgremium verfügt, welches sich mit Fragen ethischer KI und Fairness von KI befasst. Und nur jeder Dritte (33 Prozent) verfügt über ein Modellvalidierungsteam, welches neu entwickelte KI-Modelle bewertet, und nur 38 Prozent aller Befragten haben Schritte zur Verhinderung von Datenverzerrungen in die Modellentwicklungsprozesse eingebaut.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Mehrheit der Befragten (55 Prozent) ist aber der Meinung, dass KI-Systeme bei der Integration von Daten grundlegende ethische Standards erfüllen müssen. Außerdem sollten nach Ansicht der Führungskräfte, Systeme, die Back-Office-Prozesse abbilden, ethisch nachvollziehbar sein. Daraus ergibt sich die Herausforderung, dass die Mitarbeiter für die Nutzung dieser neuen Technologien und die damit verbundenen ethischen Überlegungen gewonnen werden müssen.
KI kann sich direkt auf das Leben auswirken
Fast die Hälfte (43 Prozent) der Führungskräfte fühlt sich dabei zwar verantwortlich für die Einhaltung gesetzlicher Vorschriften im Zusammenhang mit KI, aber nicht für den ethischen Umgang mit KI-Systemen – obwohl sich deren Entscheidungen indirekt auf die Lebensgrundlage von Menschen auswirken kann. Das betrifft beispielsweise Modelle zur Segmentierung der Zielgruppen, Modelle für die Gesichtserkennung oder Empfehlungssysteme.
Das Thema ethischer KI wird Entscheider also auch in Zukunft beschäftigen. Angriffe auf und mit Künstlicher Intelligenz verstärken die Notwendigkeit, robuste Modelle sowie Überwachungs- und Abwehrmaßnahmen zu implementieren.