Künstliche Intelligenz (KI) und maschinelles Lernen (ML) 7 Wege, wie KI und ML der Cybersicherheit helfen und schaden

Von Andrey Shklyarov, Dmitry Vyrostkov |

Anbieter zum Thema

In den richtigen Händen können KI und ML unsere Cyberabwehr bereichern. In den falschen Händen können sie erheblichen Schaden anrichten.

In den richtigen Händen kann KI/ML Schwachstellen aufdecken und die Reaktionszeit auf Vorfälle verkürzen. In den Händen von Cyberkriminellen können die Schäden erheblich sein.
In den richtigen Händen kann KI/ML Schwachstellen aufdecken und die Reaktionszeit auf Vorfälle verkürzen. In den Händen von Cyberkriminellen können die Schäden erheblich sein.
(Bild: Blue Planet Studio - stock.adobe.com)

Künstliche Intelligenz (KI) und maschinelles Lernen (ML) gehören heute zu unserem Alltag, und das gilt auch für die Cybersicherheit. In den richtigen Händen kann KI/ML Schwachstellen aufdecken und die Reaktionszeit auf Vorfälle verkürzen. In den Händen von Cyberkriminellen können sie aber auch erheblichen Schaden anrichten.

Hier sind sieben positive und sieben negative Auswirkungen von KI/ML auf die Cybersicherheit.

7 Positive Auswirkungen von KI/ML auf die Cybersicherheit

Erkennung von Betrug und Anomalien: Dies ist die häufigste Art und Weise, wie KI-Tools im Bereich der Cybersicherheit zum Einsatz kommen. Zusammengesetzte KI-Engines zur Betrugserkennung zeigen hervorragende Ergebnisse bei der Erkennung komplizierter Betrugsmuster. Die fortschrittlichen Analyse-Dashboards von Betrugserkennungssystemen liefern umfassende Details zu Vorfällen. Dies ist ein äußerst wichtiger Bereich innerhalb des allgemeinen Feldes der Anomalieerkennung.

E-Mail-Spam-Filter: Defensivregeln filtern Nachrichten mit verdächtigen Wörtern heraus, um gefährliche E-Mails zu identifizieren. Außerdem schützen Spam-Filter E-Mail-Benutzer und reduzieren die Zeit, die für die Durchsicht unerwünschter Korrespondenz benötigt wird.

Botnet-Erkennung: Überwachte und unüberwachte ML-Algorithmen erleichtern nicht nur die Erkennung, sondern verhindern auch ausgeklügelte Bot-Angriffe. Sie helfen auch dabei, Muster im Nutzerverhalten zu erkennen, um unentdeckte Angriffe mit einer extrem niedrigen False-Positive-Rate zu erkennen.

Schwachstellen-Management: Es kann schwierig sein, Schwachstellen zu verwalten (manuell oder mit Technologie-Tools), aber KI-Systeme machen es einfacher. KI-Tools suchen nach potenziellen Schwachstellen, indem sie das grundlegende Benutzerverhalten, Endpunkte, Server und sogar Diskussionen im Dark Web analysieren, um Code-Schwachstellen zu identifizieren und Angriffe vorherzusagen.

Anti-Malware: KI hilft Antivirensoftware dabei, gute und schlechte Dateien zu erkennen, und macht es möglich, neue Formen von Malware zu identifizieren, selbst wenn diese noch nie zuvor gesehen wurden. Die vollständige Ersetzung herkömmlicher Techniken durch KI-basierte Verfahren kann zwar die Erkennung beschleunigen, erhöht aber auch die Zahl der Fehlalarme. Die Kombination von traditionellen Methoden und KI kann 100 % der Malware erkennen.

Verhinderung von Datenlecks: KI hilft bei der Erkennung bestimmter Datentypen in Text- und Nicht-Text-Dokumenten. Trainierbaren Klassifikatoren kann beigebracht werden, verschiedene sensible Informationstypen zu erkennen. Diese KI-Ansätze können mithilfe geeigneter Erkennungsalgorithmen Daten in Bildern, Sprachaufzeichnungen oder Videos suchen.

SIEM und SOAR: ML kann Tools für das Sicherheitsinformations- und -ereignismanagement (SIEM) und die Sicherheitsorchestrierung, -automatisierung und -reaktion (SOAR) nutzen, um die Datenautomatisierung und die Sammlung von Informationen zu verbessern, verdächtige Verhaltensmuster zu erkennen und die Reaktion je nach Input zu automatisieren.

KI/ML wird in der Analyse des Netzwerkverkehrs, in Intrusion Detection Systemen, Intrusion Prevention Systemen, Secure Access Service Edge, in der Analyse des Benutzer- und Entitätsverhaltens und in den meisten im Impact Radar for Security von Gartner beschriebenen Technologiebereichen eingesetzt. Tatsächlich ist es schwer, sich ein modernes Sicherheitstool ohne irgendeine Art von KI/ML-Magie darin vorzustellen.

7 Negative Auswirkungen von KI/ML auf die Cybersicherheit

Sammeln von Daten: Mithilfe von Social Engineering und anderen Techniken wird ML zur besseren Erstellung von Opferprofilen eingesetzt, und Cyberkriminelle nutzen diese Informationen zur Beschleunigung von Angriffen. Im Jahr 2018 wurden beispielsweise WordPress-Websites massiv durch ML-basierte Botnet-Infektionen infiziert, die Hackern Zugang zu den persönlichen Daten der Nutzer gewährten.

Ransomware: Ransomware erlebt eine bedauerliche Renaissance. Beispiele für kriminelle Erfolgsgeschichten gibt es viele; einer der schlimmsten Vorfälle führte zur sechstägigen Schließung von Colonial Pipeline und zur Zahlung von 4,4 Millionen Dollar Lösegeld.

Spam, Phishing und Spear-Phishing: ML-Algorithmen können gefälschte Nachrichten erstellen, die wie echte aussehen und darauf abzielen, die Anmeldedaten der Benutzer zu stehlen. In einer Black-Hat-Präsentation beschrieben John Seymour und Philip Tully, wie ein ML-Algorithmus virale Tweets mit gefälschten Phishing-Links erzeugte, die viermal effektiver waren als eine von Menschen erstellte Phishing-Nachricht.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Fälschungen: Beim Voice-Phishing nutzen Betrüger die mit Hilfe von ML generierte Deepfake-Audiotechnologie, um erfolgreichere Angriffe durchzuführen. Moderne Algorithmen wie "Deep Voice" von Baidu benötigen nur wenige Sekunden der Stimme einer Person, um deren Sprache, Akzente und Töne zu reproduzieren.

Malware: ML kann Malware verbergen, die das Verhalten von Knoten und Endpunkten verfolgt und Muster erstellt, die den legitimen Netzwerkverkehr im Netzwerk des Opfers imitieren. Sie kann auch einen selbstzerstörerischen Mechanismus in Malware einbauen, der die Geschwindigkeit eines Angriffs erhöht. Algorithmen sind darauf trainiert, Daten schneller zu extrahieren, als es ein Mensch könnte, was es viel schwieriger macht, sie zu verhindern.

Passwörter und CAPTCHAs: Neuronalnetz-gestützte Software behauptet, menschliche Erkennungssysteme leicht zu knacken. ML ermöglicht es Cyberkriminellen, riesige Passwort-Datensätze zu analysieren, um Passwörter besser zu erraten. PassGAN beispielsweise verwendet einen ML-Algorithmus, um Passwörter genauer zu erraten als gängige Tools zum Knacken von Passwörtern, die herkömmliche Techniken verwenden.

Angriffe auf KI/ML selbst: Der Missbrauch von Algorithmen, die das Herzstück des Gesundheitswesens, des Militärs und anderer hochwertiger Sektoren bilden, könnte zu einer Katastrophe führen. Das Berryville Institute of Machine Learning's Architectural Risk Analysis of Machine Learning Systems hilft bei der Analyse von Taxonomien bekannter Angriffe auf ML und führt eine architektonische Risikoanalyse von ML-Algorithmen durch. Sicherheitsingenieure müssen lernen, wie sie ML-Algorithmen in jeder Phase ihres Lebenszyklus sichern können.

Es ist leicht zu verstehen, warum KI/ML so viel Aufmerksamkeit erregt. Die einzige Möglichkeit, hinterhältige Cyberangriffe zu bekämpfen, besteht darin, das Potenzial der KI zur Verteidigung zu nutzen. Die Unternehmenswelt muss erkennen, wie leistungsfähig ML sein kann, wenn es um die Erkennung von Anomalien geht (z. B. bei Verkehrsmustern oder menschlichen Fehlern). Mit den richtigen Gegenmaßnahmen kann möglicher Schaden verhindert oder drastisch reduziert werden.

Insgesamt ist KI/ML für den Schutz vor Cyber-Bedrohungen von großem Wert. Einige Regierungen und Unternehmen nutzen oder diskutieren den Einsatz von KI/ML zur Bekämpfung von Cyber-Kriminellen. Auch wenn die Bedenken hinsichtlich des Datenschutzes und der Ethik im Zusammenhang mit KI/ML berechtigt sind, müssen die Regierungen sicherstellen, dass KI/ML-Vorschriften Unternehmen nicht daran hindern, KI/ML zum Schutz einzusetzen. Denn, wie wir alle wissen, halten sich Cyberkriminelle nicht an Vorschriften.

Über die Autoren

Andrey Shklyarov kam 2016 als Chief Compliance Officer zu DataArt. Er verfügt über mehr als 25 Jahre Erfahrung in der IT-Branche. Er begann seine Karriere als Softwareentwickler und hat viele Rollen gespielt. Er hat Erfahrung in der Leitung von Projekten, der Verwaltung von Programmen in der Medizingerätebranche, dem Aufbau von Qualitäts- und Sicherheitsmanagementsystemen, der Überwachung der Einführung agiler Methoden, der Leitung eines Software-Lieferzentrums und der Leitung eines Compliance-Programms für Unternehmen. Andrey hat einen Master-Abschluss in Informatik von der Kharkiv National University of Radio Electronics.

Dmitry Vyrostkov kam 2006 als Softwareentwickler/Teamleiter zu DataArt. Im Jahr 2012 gründete Dmitry die Sicherheitskompetenz von DataArt, ein Team von Sicherheitsexperten, das Kunden berät und die Entwicklungsteams von DataArt bei der Umsetzung der besten Sicherheitsverfahren unterstützt. Dmitry bewirbt die Dienstleistungen der Gruppe bei internen und externen Zielgruppen. Im Jahr 2019 erwirtschaftete die Gruppe über 1 Million US-Dollar an Sicherheitsdienstleistungen. Dmitry koordiniert außerdem Vertriebsaktivitäten, Projekte und Ressourcen und überwacht die Qualität der Dienstleistungen und Ergebnisse. Bevor er zu DataArt kam, arbeitete Dmitry als Entwickler und Teamleiter bei Relex, einem der führenden Softwareentwicklungsunternehmen in Woronesch. Dmitry hat einen MS-Abschluss in angewandter Mathematik, Informatik und Mechanik von der Staatlichen Universität Woronesch.

(ID:48458467)