Avast „CyberSec & AI 2019“ Was kann Künstliche Intelligenz wirklich?
Ist KI nur ein Hype? Werden altbekannte Security-Funktionen nur werbewirksam mit Künstlicher Intelligenz bezeichnet? Die Fachkonferenz „CyberSec & AI“ 2019 in Prag gab einen Überblick über den Stand von KI in der Cybersecurity. Es zeigte sich: Aufklärung über KI tut Not.
Anbieter zum Thema

Der Security-Anbieter Avast hat in Zusammenarbeit mit der Tschechischen Technischen Universität Prag (CTU) im Oktober erstmals die internationale Konferenz „Cybersec & AI “ in Prag veranstaltet. Eine Fortsetzung in 2020 wurde bereits angekündigt.
Rajarshi Gupta, Head of AI von Avast, hat die Konferenz gemeinsam mit der CTU initiiert: „Wir bringen mit dieser Konferenz die besten Köpfe der Branche aus aller Welt zusammen und unterstützen aktiv den Austausch zwischen Wissenschaft und Wirtschaft. CyberSec & AI fördert den Dialog über die Möglichkeiten von neuen Technologien und darüber, wie sie unsere Zukunft beeinflussen werden.“
Dabei spielt Security für KI eine besondere Rolle: Sicherheit ist die größte Herausforderung von KI, und KI ist die beste Chance für Sicherheit, so die Beschreibung zu einem Panel auf der Konferenz. Wie aber steht es heute um die KI in der IT-Security? Das ist sowohl für die Anwender als auch für den Channel wichtig, denn Anwender müssen wissen, wofür sie sich entscheiden, und der Channel muss wissen, was man empfehlen und verkaufen kann.
Ein Fazit der zahlreichen Vorträge: Cybersicherheit muss neue Wege finden, um Künstliche Intelligenz einzusetzen. Avasts KI-Chef Rajarshi Gupta erklärte in seinem Vortrag, dass „KI in der Sicherheit echt ist“, es geht also um mehr als einen Hype oder reines Marketing. Dennoch kommt es darauf an, KI richtig einzuschätzen und einzusetzen.
KI muss selbst sicherer werden
Die gegnerische KI, die von Avast-Forschern als „aktives Wettrüsten, das die Sicherheit von KI besonders herausfordert“ bezeichnet wird, war ein zentrales Thema, das zum Beispiel in einem Vortrag der Avast-Forscherin Sadia Afroz diskutiert wurde.
Gegnerische KI-Angriffe auf die Malware-Detektoren von Cybersecurity „mögen theoretisch erscheinen, aber tatsächlich geschehen sie bereits in der Praxis“, sagte Sadia Afroz. Die Cybersicherheitsbranche müsse daran arbeiten, KI-Modelle zu aktualisieren, damit sie diese sich entwickelnden Angriffe abwehren können, betonte sie.
„Ich freue mich sehr über diese Konferenz, da diese Community zu diesem Zeitpunkt die Möglichkeit hat, Grundlagen für wichtige Sicherheitsansätze im Bereich des maschinellen Lernens und der Künstlichen Intelligenz beizutragen“, sagte Nicolas Papernot, Assistenzprofessor an der Universität von Toronto. Papernot ist der Ansicht, dass zunehmend erkannt wird, dass maschinelles Lernen neue Sicherheits- und Datenschutzlücken in Softwaresystemen entstehen lässt. Das Verständnis der Tech-Community über Art und Ausmaß dieser Sicherheitslücken sei jedoch weiterhin begrenzt.
„Was wir als Gemeinschaft noch ausarbeiten müssen, ist ein prinzipiellerer Ansatz“, sagte Papernot. „Es gibt viele Aspekte, die ein guter Sicherheitsmechanismus beim maschinellen Lernen und bei der KI beinhalten sollte.“ Er verwies auf Gestaltungsprinzipien, die Jerome Saltzer und Michael Schroeder 1975 in ihrem Artikel „Der Schutz von Informationen in Computersystemen“ aufgezählt haben.
KI-Systeme, die sich proaktiv an solche wichtigen Design-Ansätze halten, werden sicherer und so zu einer besseren Unterstützung für Cybersecurity.
KI-Probleme in der Cybersecurity
Angriffe auf KI können die Integrität, Vertraulichkeit und Verfügbarkeit betreffen. Denkbar sind zum Beispiel die Manipulation der Trainingsdaten, das Ausspionieren des Modells (um als Angreifer auf die Vorhersagen reagieren und den Schutz besser umgehen zu können) oder auch eine Überlastung der KI-Lösung im Sinne einer DDoS-Attacke.
KI hat nicht nur selbst Schwachstellen und kann angegriffen und bei unzureichendem Schutz manipuliert werden. KI-Modelle altern auch: Während sich die Malware ständig weiterentwickelt, bleiben KI-Modelle in vielen Fällen unverändert und verlieren so an Effektivität (sogenannte Concept Drift). KI-Lösungen müssen deshalb regelmäßig nachlernen (Continual Learning).
Die Konferenz CyberSec & AI will deshalb daran mitwirken, dass Lösungen dafür gefunden werden, KI sicherer und sie so zu einem der wichtigsten Werkzeuge der Cybersecurity zu machen. Blindes Vertrauen in KI ist ebenso wenig angesagt wie ein Ablehnen von KI als Security-Werkzeug. Man muss um die Probleme der KI wissen und die Künstliche Intelligenz entsprechend einsetzen – geschützt und regelmäßig trainiert.
(ID:46224720)