Mehr Sicherheit bei Künstlicher Intelligenz Wie sich Algorithmen für Maschinelles Lernen schützen lassen

Künstliche Intelligenz (KI) spielt nicht nur auf Seiten der IT-Sicherheit eine zunehmend wichtige Rolle. KI ist auch ein mögliches Angriffsziel und Angriffswerkzeug. IT-Sicherheitsbehörden wie die EU-Agentur für Cybersicherheit geben deshalb Hinweise, wie sich die Algorithmen für Maschinelles Lernen besser gegen Missbrauch und Manipulation schützen lassen.

Anbieter zum Thema

Die EU-Agentur für Cybersicherheit ENISA hat Hinweise für die Absicherung von Algorithmen für Maschinelles Lernen veröffentlicht.
Die EU-Agentur für Cybersicherheit ENISA hat Hinweise für die Absicherung von Algorithmen für Maschinelles Lernen veröffentlicht.
(Bild: ENISA)

Damit der KI-Einsatz im eigenen Unternehmen vorangebracht werden kann, fordern 54 Prozent der Befragten Hilfe bei der rechtlichen und ethischen Beurteilung des KI-Einsatzes, so eine Umfrage des Digitalverbandes Bitkom.

Grundsätzlich sehen die Unternehmen eine breite Palette von Vorteilen von KI. So erwarten 44 Prozent schnellere und präzisere Problemanalysen durch KI, 39 Prozent rechnen mit der Vermeidung menschlicher Fehler im Arbeitsalltag, 21 Prozent erwarten die Verbesserung von bestehenden Produkten und Dienstleistungen, 17 Prozent rechnen sogar mit völlig neuen Angeboten dank KI.

Realität werden können die Erwartungen an KI aber nur dann, wenn ethische Fragen geklärt werden können, der Datenschutz bei einer KI-Lösung stimmt und die Sicherheit bei der KI gewährleistet ist. Doch wie soll Sicherheit bei KI aussehen?

Sicherheitsbehörden warnen vor KI-Risiken

Vor dem Sicherheitskonzept steht immer eine Risikoanalyse. Zudem gilt: Neue Technologien sollten nicht eingesetzt werden, ohne sich der möglichen Risiken bewusst zu sein. So erklärt die EU-Agentur für Cybersicherheit ENISA zu KI: Die Vorteile dieser aufkommenden Technologie sind erheblich, aber auch die Bedenken wie potenzielle, neue Möglichkeiten der Manipulation und Angriffsmethoden.

Der Exekutivdirektor der EU-Agentur für Cybersicherheit, Juhan Lepassaar, sagte dazu: „Cybersicherheit ist eine der Grundlagen vertrauenswürdiger Lösungen für Künstliche Intelligenz. Ein gemeinsames Verständnis von KI-Cybersicherheitsbedrohungen wird der Schlüssel für die weit verbreitete Einführung und Akzeptanz von KI-Systemen und -Anwendungen in Europa sein.“

Unternehmen erhalten aber auch Sicherheitshinweise

Die IT-Sicherheitsbehörde ENISA beschränkt sich aber nicht auf die Risikohinweise, auch konkrete Empfehlungen zur Absicherung von KI kommen von dort. ENISA möchte Antworten finden und geben auf Fragen wie: Wie wird maschinelles Lernen cyber-sicher? Wie verhindert man Cyberangriffe auf maschinelles Lernen? Wie wird Sicherheit möglich, ohne die Leistung der KI zu beeinträchtigen?

Grundsätzlich gilt: KI-Sicherheit ist in weiten Teilen verbunden mit Datensicherheit, denn Algorithmen des maschinellen Lernens werden verwendet, um Maschinen die Möglichkeit zu geben, aus Daten zu lernen, um Aufgaben zu lösen, ohne dass sie explizit dafür programmiert werden. Allerdings benötigen solche Algorithmen zum Lernen extrem große Datenmengen. Und weil sie dies tun, können sie auch spezifischen Cyber-Bedrohungen wie Datenmanipulation und Datenausspähung ausgesetzt sein, wie ENISA betont.

Es gibt kein Patentrezept für KI-Sicherheit, aber Sicherheitstipps

Wenn es um die Absicherung der Algorithmen für das Maschinelle Lernen (ML) geht, trifft die Security auf einen sehr komplexen Bereich und auf vielfältige Anwendungsszenarien. Deshalb macht ENISA zuerst einmal deutlich:

  • Es gibt keine Wunderwaffe zur Abwehr von ML-spezifischen Angriffen.
  • Einige Sicherheitskontrollen können von Angreifern umgangen werden. Allerdings können Schutzmaßnahmen die Messlatte immer noch höher legen für Angreifer.
  • Sicherheitskontrollen führen oft zu einem Kompromiss zwischen Sicherheit und Leistung.
  • Der Kontext der Anwendung muss berücksichtigt werden, um die Risiken richtig einzuschätzen und den Einsatz der Sicherheitskontrollen auszuwählen.

Ein Schutzkonzept für Artificial Intelligence (AI) muss zahlreiche Risiken berücksichtigen und im Kontext des Anwendungsfalls und der aktuellen Lage bewerten.
Ein Schutzkonzept für Artificial Intelligence (AI) muss zahlreiche Risiken berücksichtigen und im Kontext des Anwendungsfalls und der aktuellen Lage bewerten.
(Bild: ENISA)

Auf dieser Basis bietet ENISA eine Übersicht über mögliche Sicherheitskontrollen, die jeweils auf den konkreten Schutzbedarf und das aktuelle Risiko der KI-Anwendung angepasst werden müssen, darunter auch diese technischen:

  • Beurteilen Sie das Expositionsniveau des verwendeten Modells: Einige Modelldesigns werden häufiger verwendet oder geteilt als andere (z. B. Open Source-Sharing). Diese Aspekte müssen bei der Risikoanalyse berücksichtigt werden: Modelle, die direkt aus dem Internet entnommen wurden, sollte man nicht ungeprüft wiederverwenden. Man sollte nur Modelle verwenden, bei denen die Bedrohungen klar identifiziert sind und deren Sicherheit kontrolliert wird.
  • Überprüfen Sie die Schwachstellen der verwendeten Komponenten, damit diese über ein angemessenes Sicherheitsniveau verfügen: Während des Lebenszyklus eines ML-Algorithmus werden mehrere Komponenten (wie Software, Programmierbibliotheken oder andere Modelle) verwendet, um das Projekt abzuschließen. Um sicherzustellen, dass diese Komponenten ein angemessenes Sicherheitsniveau bieten, müssen Sicherheitsüberprüfungen durchgeführt werden. Zum Beispiel: Wenn eine Open-Source-Bibliothek verwendet werden soll, sollten Code-Reviews oder eine Überprüfung auf bekannte Schwachstellen durchgeführt werden.
  • Es sollte eine Risikoanalyse der Gesamtanwendung durchgeführt werden, um die Besonderheiten des Kontexts zu berücksichtigen, einschließlich Motivation des Angreifers, Sensibilität der verarbeiteten Daten (z. B. medizinische oder personenbezogene Daten), das Anwendungshosting (z. B. durch Dienste von Drittanbietern, Cloud- oder On-Premises-Umgebungen), die Modellarchitektur (z. B. deren Darstellung, Lernmethoden) und der ML-Anwendungslebenszyklus (z. B. Modellfreigabe).
  • Die Daten müssen überprüft werden, um sicherzustellen, dass sie dem Modell entsprechen und die Aufnahme schädlicher Daten begrenzt wird: Bewerten Sie das Vertrauensniveau der Quellen, um zu überprüfen, ob es im Kontext der Anwendung angemessen ist. Schützen Sie die Integrität entlang der gesamten Datenlieferkette. Bei gelabelten Daten stellt sich die Frage, ob dem Aussteller des Labels vertraut wird.
  • Definieren und überwachen Sie Indikatoren für das ordnungsgemäße Funktionieren des Modells: Definieren Sie Dashboards zur Integration von Sicherheitsindikatoren (wie ungewöhnliche Änderungen im Modellverhalten), um das ordnungsgemäße Funktionieren des Modells im Hinblick auf den Business Case zu verfolgen, insbesondere um eine schnelle Identifizierung von Anomalien zu ermöglichen.
  • Stellen Sie sicher, dass für Testumgebungen angemessener Schutz bereitgestellt wird: Testumgebungen müssen auch entsprechend der Sensibilität der darin enthaltenen Informationen gesichert werden.
  • ML-Projekte müssen den üblichen Prozess zur Integration von Sicherheit in Projekte einhalten, einschließlich der folgenden: Risikoanalyse der gesamten Anwendung, Überprüfung der Integration von Cybersicherheits-Best Practices in Bezug auf die Architektur, sichere Entwicklung.
  • Prüfen Sie, ob die KI-Anwendung in bestehende betriebliche Sicherheitsprozesse integriert wird: Überwachung und Reaktion, Patch-Management, Zugriffsmanagement, Cyber-Resilienz.
  • Prüfen Sie die Erstellung einer adäquaten Dokumentation (z. B. technische Architektur, Härtung, Verwertung, Konfigurations- und Installationsunterlagen).
  • Denken Sie an Sicherheitschecks vor Produktionsstart (z. B. Sicherheitsaudit, Pen-Tests).

Es zeigt sich: Man muss Security nicht neu erfinden, um KI besser zu schützen, vieles ist einem Unternehmen bereits bekannt und anderweitig erprobt, aber Security muss auf die Besonderheiten von KI angepasst werden, immer passend zur jeweiligen KI-Anwendung.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47962312)