Kommentar von Scott Zoldi, FICO Gegnerische KI die erschwert ethische Nutzung von KI

Autor / Redakteur: Scott Zoldi / Nico Litzel

Weil die Angriffe mit gegnerischer KI auf Unternehmen zugenommen haben, setzen diese verstärkt auf stochastische Verteidigung und Sicherheit durch Security-by-Design-Prozesse. So schützen sie ihre eigenen KI-Ökosysteme.

Anbieter zum Thema

Der Autor: Scott Zoldi ist Chief Analytics Officer bei FICO
Der Autor: Scott Zoldi ist Chief Analytics Officer bei FICO
(Bild: FICO)

Besonders, wenn es um die militärische Anwendung von KI geht – etwa beim Einsatz autonom agierender Kampfdrohnen – flammen auch in der Gesellschaft Diskussionen über Künstliche Intelligenz und Ethik auf. Doch es muss gar nicht um Leib und Leben gehen, um sich kritisch mit KI sowie ihren Möglichkeiten und (auch moralischen) Grenzen auseinanderzusetzen.

KI-Engines werden mit Unsinn manipuliert

Immer häufiger wird KI zum Beispiel auch von Cyberkriminellen für automatisierte Attacken verwendet. Sei es, um Angriffe zu optimieren und finanzielle oder erpresserische Ziele zu verfolgen. Oder um die KI-Systeme der Opfer zu unterwandern und diese zu stören. Aktuell berichten immer mehr KI-Verantwortliche, dass sie es bereits mit einem oder mehreren KI-unterstützen Angriffen zu tun hatten. Beispielsweise werden falsche oder manipulierte Datensätze aufwendig in die Datengrundlagen eingespeist, von denen KI-Engines lernen. Das Resultat: Angreifer sorgen dafür, dass sich die angegriffenen KI-Systeme vor allem Unbrauchbares aneignen. Hier kommt schon die Ethik ins Spiel. Denn was tun, wenn KI-basierte Algorithmen irgendwann nur noch zu Empfehlungen aufgrund von Lügen und Manipulation gelangen? Wer trägt dann die Verantwortung für teure oder gar gefährliche Fehlentscheidungen?

Bereits 30 Prozent berichten von KI-Attacken

Wie Entscheidungsträger die Situation bewerten und welche Maßnahmen sie für geeignet halten, den steigenden Herausforderungen zu begegnen, dem geht eine neue Studie auf den Grund: 30 Prozent der 100 befragten Führungskräften im Bereich KI berichten laut der Untersuchung „State of Responsible AI“ von FICO und Corinium, dass ihr Unternehmen bereits mindestens einmal durch feindliche KI angegriffen wurde. In der Vergleichsstudie aus dem vergangenen Jahr waren dies erst zwölf Prozent.

Bei gegnerischer KI (Adversarial Artificial Intelligence) handelt es sich um ein relativ neues Phänomen. Untersuchungen von FICO zeigen, dass Unternehmen die Tragweite dieser Angriffe durch eine gegnerische KI noch nicht vollständig erfassen. Und auch bei der Definition, was „Adversarial AI“ ausmacht, gibt es unterschiedliche Ansichten. Deshalb werden genauere Definitionen benötigt, um zu bestimmen, was gegnerische KI ausmacht. Strengen Definitionen zufolge handelt es sich um „Adversarial AI“, wenn ein Angreifer böswillig hochspezifische Daten in einen Algorithmus einspeist, eine Kopie des KI-Modells eines Unternehmens besitzt oder eine systematische Manipulation vornehmen kann.

Unternehmen, die sicherstellen wollen, dass sie KI verantwortungsbewusst einsetzen, sollten sich mit diesem Konzept vertraut machen. Denn die Firmen haben die Pflicht, die Privatsphäre ihrer Kunden zu schützen, indem sie deren Daten sicher aufbewahren und diese fair und im wirklichen Kundeninteresse nutzen.

So bekämpfen Führungskräfte feindliche KI

Die wichtigsten Ergebnisse der Studie im Überblick
Die wichtigsten Ergebnisse der Studie im Überblick
(Bild: Corinium Intelligence, 2021)

Welche Methoden die Unternehmen jetzt einsetzen, um die Sicherheit ihrer KI-Modelle zu gewährleisten und diese vor gegnerischer KI oder anderen bösartigen Angriffen zu schützen, hat FICO in der neuesten Studie untersucht. Demnach nutzen diese hauptsächlich vier Ansätze:

  • 65 Prozent der befragten Führungskräfte haben klar definierte Prozesse, um Zufallselemente in KI-Modelle einzubauen. Diese stochastische Verteidigung hilft, um sich vor bösartigen Angriffen zu schützen.
  • 51 Prozent der Manager verfügen über eine Security-by-Design-Richtlinie sowie einen Überprüfungsprozess.
  • 27 Prozent nutzen klare Prozesse für die Überwachung aller Daten, die der KI für die Verarbeitung zur Verfügung gestellt werden, um Angriffe durch gegnerische KI zu verhindern.
  • Schließlich prüfen und entfernen 17 Prozent der Unternehmen derzeit sensible Informationen aus realen Daten, bevor sie diese zum Trainieren von KI-Modellen verwenden.

In vielen Fällen sind die Prozesse, die Unternehmen für jede dieser Abwehrtechniken haben, jedoch informell und nicht klar definiert. „Data Poisoning“ oder andere gegnerische KI-Technologien grenzen sehr stark an das Thema Cybersicherheit. Ohne robuste Cybersicherheit dürfte es immer schwieriger werden, sich gegen feindliche KI zu schützen. Dies ist ein Bereich, in dem viele der Unternehmen nicht so weit sind, wie es notwendig ist. Da der Respekt vor den Wünschen der Kunden und das Recht auf Privatsphäre Grundpfeiler einer verantwortungsvollen Daten-, Analyse- und KI-Nutzung sind, sollten für KI zuständige Führungskräfte hier jedoch besonders sorgfältig vorgehen.

Auch eigene KI muss überwacht werden

Aber auch ohne die Gefahr durch externe Angreifer ist das Thema ethischer KI wichtig – und in der Praxis oft noch nicht auf dem Level, auf dem es sein sollte. Aktuell überwachen beispielsweise nur 20 Prozent der Befragten ihre KI-Modelle im Betrieb aktiv auf Fairness und Ethik. Weniger als ein Viertel der Führungskräfte (22 Prozent) gibt an, dass ihr Unternehmen über ein KI-Ethikgremium verfügt, welches sich mit Fragen ethischer KI und Fairness von KI befasst. Und nur jeder Dritte (33 Prozent) verfügt über ein Modellvalidierungsteam, welches neu entwickelte KI-Modelle bewertet, und nur 38 Prozent aller Befragten haben Schritte zur Verhinderung von Datenverzerrungen in die Modellentwicklungsprozesse eingebaut.

Die Mehrheit der Befragten (55 Prozent) ist aber der Meinung, dass KI-Systeme bei der Integration von Daten grundlegende ethische Standards erfüllen müssen. Außerdem sollten nach Ansicht der Führungskräfte, Systeme, die Back-Office-Prozesse abbilden, ethisch nachvollziehbar sein. Daraus ergibt sich die Herausforderung, dass die Mitarbeiter für die Nutzung dieser neuen Technologien und die damit verbundenen ethischen Überlegungen gewonnen werden müssen.

KI kann sich direkt auf das Leben auswirken

Fast die Hälfte (43 Prozent) der Führungskräfte fühlt sich dabei zwar verantwortlich für die Einhaltung gesetzlicher Vorschriften im Zusammenhang mit KI, aber nicht für den ethischen Umgang mit KI-Systemen – obwohl sich deren Entscheidungen indirekt auf die Lebensgrundlage von Menschen auswirken kann. Das betrifft beispielsweise Modelle zur Segmentierung der Zielgruppen, Modelle für die Gesichtserkennung oder Empfehlungssysteme.

Das Thema ethischer KI wird Entscheider also auch in Zukunft beschäftigen. Angriffe auf und mit Künstlicher Intelligenz verstärken die Notwendigkeit, robuste Modelle sowie Überwachungs- und Abwehrmaßnahmen zu implementieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47782662)