Kommentar von Etay Maor, Cato Networks ChatGPT und Cybersicherheit – positive und negative Aspekte

Von Etay Maor Lesedauer: 5 min

Anbieter zum Thema

Ein neuer generativer Chatbot auf Basis von Künstlicher Intelligenz und von OpenAI frei zur Verfügung gestellt, verspricht die Art und Weise zu revolutionieren, wie wir nach Informationen suchen, mit Maschinen interagieren und eine Vielzahl von Aufgaben automatisieren. Wie bei anderen Neuheiten halten sich Euphorie und Bedenken auch bei ChatGPT die Waage: Der Chatbot hat seine positiven und negativen Seiten, insbesondere was die Cybersicherheit anbelangt.

Der Autor: Etay Maor ist Senior Director of Security Strategy bei Cato Networks
Der Autor: Etay Maor ist Senior Director of Security Strategy bei Cato Networks
(Bild: Claudio Goncalves - Out of Frame Prod)

Das wirklich Faszinierende an ChatGPT ist, dass man buchstäblich mit dem Chatbot sprechen kann (dank einer Google-Chrome-Erweiterung auf Github) oder ihn anweisen kann, etwas Bestimmtes zu tun. Fast augenblicklich bekommt man eine menschenähnliche Antwort auf praktisch jede Anfrage: Vom Verfassen von Aufsätzen und Reden über Recherchen und Zusammenfassungen, von Beiträgen in sozialen Medien bis hin zum Schreiben oder Debuggen von Code.

Die positiven Aspekte von ChatGPT für die Cybersicherheit

Im Moment kratzen wir noch an der Oberfläche, was den potenziellen Nutzen für die Cybersicherheit anbelangt. Aber es existiert eine Reihe von Szenarien, die sowohl aus Sicht von Unternehmen als auch aus Sicht von Sicherheitsverantwortlichen interessant sind:

  • 1. Debugging von Code: DevSecOps-Teams können ChatGPT nutzen, um Fehler und Schwachstellen in Code und Webseiten zu identifizieren, bevor der Code übermittelt wird. Ein weiterer Bereich, in dem die Anwendung eine große Rolle spielen kann, ist das Erkennen logischer Fehler. Syntaxfehler findet jeder Compiler, aber das Erkennen von logischen Fehlern ist tatsächlich eindrucksvoll.
  • 2. Cyberangriffe prognostizieren: ChatGPT kann dabei unterstützen, zurückliegende Angriffe zu analysieren und eine fundierte Antwort darauf zu geben, welche Taktiken die Angreifer verwendet haben oder zukünftig verwenden könnten. Theoretisch könnte ChatGPT in der Lage sein, KI-generierte Phishing-E-Mails zu identifizieren, aber so weit sind wir noch nicht.
  • 3. Forensische Analysen durchführen: Möglicherweise lässt sich ChatGPT nutzen, um einen Sicherheitsvorfall zu untersuchen und Klarheit darüber zu erlangen, warum die Verteidigungsmaßnahmen nicht gegriffen haben. Ebenso dazu, welche Schritte man einleiten sollte, um die Lücken zu schließen. Ohne KI-Tools sind forensische Analysen und die manuelle Korrelation von Sicherheitsdaten, um die Ursache einer Datenschutzverletzung zu ermitteln mühsam und zeitaufwendig.
  • 4. Sicherheit konfigurieren und automatisieren: Die meisten Sicherheitstools und -systeme müssen richtig konfiguriert werden, damit sie effizient arbeiten. Dank einiger technischer Hilfsmittel kann ChatGPT bei der Einrichtung von Firewall-Regeln, Intrusion Prevention-Systemen, Serverkonfigurationen, automatischen Updates usw. helfen und Skripte für eine sichere Systemkonfiguration erstellen. Es ist auch möglich, dass ChatGPT-basierte Anwendungen Fehlkonfigurationen erkennen.
  • 5. Fachkräftemangel bewältigen: In der Cybersicherheitsbranche herrscht ein eklatanter Mangel an Fachkräften mit Cybersecurity-Skills. ChatGPT kann vielleicht dazu beitragen, diesen Mangel zu beheben. ChatGPT automatisiert bestimmte Prozesse und verringert so die Abhängigkeit von manuellen Interventionen. ChatGPT lässt sich zum Beispiel zum Erstellen von Berichten verwenden. IT-Sicherheitsabteilungen können sich auf anspruchsvolle Aufgabenstellungen konzentrieren, statt auf administrative Anforderungen.

Die negativen Aspekte von ChatGPT für die Cybersicherheit

Unternehmen und Cybersicherheitsexperten sind naturgemäß nicht die Einzigen, die von generativer KI profitieren. Tools wie ChatGPT werden dazu beitragen, die Cyberkriminalität anzutreiben und sogar die Fähigkeiten von Kriminellen zu verbessern. Denkbar sind Szenarien wie diese:

  • 1. Phishing zielgerichteter durchführen: ChatGPT trägt dazu bei, die Textqualität erheblich zu verbessern (mit ChatGPT geschriebene E-Mails enthalten keine Rechtschreib- oder Grammatikfehler und nur wenige sachliche Fehler). Wenn ein Angreifer Phishing-E-Mails auf Arabisch oder Schwedisch schreiben muss, kann ChatGPT den Text in die jeweilige Landessprache übertragen. Angreifer können ChatGPT auch veranlassen, im Stil einer bestimmten Person (z. B. des CEO) zu schreiben (und eventuell die Stimme zu imitieren), was E-Mails und die gesamte Kommunikation noch überzeugender macht.
  • 2. Fortschrittliche Social-Engineering-Techniken: Die Tatsache, dass ChatGPT menschenähnlich antwortet, macht Betrug mittels Social Engineering wesentlich einfacher. In Kombination mit KI-generierten Bilder von Personen (für LinkedIn-Betrug), Audio-Imitationen und Deepfake-Videos hat man die perfekten Zutaten für moderne Social-Engineering-Ansätze beisammen.
  • 4. Nach Schwachstellen suchen: Genauso wie DevSecOps-Teams mit ChatGPT Code debuggen können, sind Angreifer in der Lage, nach Schwachstellen im Code zu suchen. Das gelingt mit ChatGPT auch in großem Umfang. Anstatt Zeile für Zeile manuell durchzugehen, können Angreifer ChatGPT einfach auffordern, den Code zu dekonstruieren und auf Schwächen und Sicherheitslücken hinzuweisen. So gelang es kürzlich einem Auditor von Smart Contracts mithilfe von ChatGPT Schwachstellen in einem Smart Contract zu identifizieren.
  • 5. Fehlinformationen verbreiten: National-staatlich finanzierte Angreifer, staatlich geförderte terroristische Organisationen, Hacktivisten, Hate Groups usw. können ChatGPT benutzen, um Zwietracht zu säen, demokratische Werte zu untergraben sowie Verschwörungstheorien und computergestützte Propaganda in einem wesentlichen größeren Ausmaß zu verbreiten, als es Bots heute schon auf allen wichtigen Social-Media-Kanälen tun. KI-Systeme basieren auf einem riesigen Wissensschatz und wirken deshalb recht überzeugend – und sie können äußerst logisch argumentieren. Bots können sich als reale Menschen ausgeben oder dies vorgeben, authentische Inhalte zu einer Reihe von Themen erstellen und hohe Follower-Zahlen generieren. Wenn bestimmte Schlüsselwörter oder Themen in den sozialen Medien getriggert werden, kann ChatGPT so gestaltet werden, dass der Bot eine bestimmte Agenda verfolgt und vorantreibt.
  • 6. Vorurteile und ethische Bedenken: Einer der wichtigsten Negativaspekte von ChatGPT ist seine Anfälligkeit für Vorurteile. ChatGPT spuckt Informationen auf der Grundlage der Daten aus, mit denen es gefüttert wurde. Beruhen diese Daten auf Vorurteilen, verstärken sich bestehende Ungleichheiten nicht unerheblich. Mit potenziell gefährlichen Konsequenzen. Cyberkriminelle könnten ChatGPT mit Falschinformationen speisen und so manipulieren, dass der Bot selbst falsche Informationen erzeugt. ChatGPT ist zudem sicher und „selbstbewusst“, was seine Antworten angeht, auch wenn sie manchmal schlichtweg falsch sind. Dazu kommen Datenschutz- und Sicherheitsbedenken. Falls das Modell Informationen sammelt und speichert, besteht das Risiko, dass diese Daten gestohlen, manipuliert oder missbraucht werden könnten, wenn sie nicht ordnungsgemäß geschützt sind.

ChatGPT hat zwar das Potenzial, sowohl von Angreifern als auch zur Verteidigung genutzt zu werden. Dennoch ist es wichtig, mögliche Risiken zu berücksichtigen. Die Leistungsfähigkeit von ChatGPT sollte immer Teil einer umfassenden Sicherheitsstrategie werden, die auch eine Evaluierung von SASE (Secure Access Service Edge) mit einschließt. Solange man diese Vorsichtsmaßnahmen beherzigt, gibt es kaum Grund zur Sorge. Zum jetzigen Zeitpunkt ist ChatGPT nicht in der Lage, etwas „Neues“ anzubieten. ChatGPT verbessert oder beschleunigt lediglich verschiedene Elemente im Lebenszyklus einer Sicherheitsverletzung. Es besteht allerdings kaum ein Zweifel, dass wir in naher Zukunft sehr viel mehr über KI-gestützte Tools innerhalb der Cybersicherheit und „Prompt Engineering“ hören werden.

(ID:49240549)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung