Ein neuer generativer Chatbot auf Basis von Künstlicher Intelligenz und von OpenAI frei zur Verfügung gestellt, verspricht die Art und Weise zu revolutionieren, wie wir nach Informationen suchen, mit Maschinen interagieren und eine Vielzahl von Aufgaben automatisieren. Wie bei anderen Neuheiten halten sich Euphorie und Bedenken auch bei ChatGPT die Waage: Der Chatbot hat seine positiven und negativen Seiten, insbesondere was die Cybersicherheit anbelangt.
Der Autor: Etay Maor ist Senior Director of Security Strategy bei Cato Networks
(Bild: Claudio Goncalves - Out of Frame Prod)
Das wirklich Faszinierende an ChatGPT ist, dass man buchstäblich mit dem Chatbot sprechen kann (dank einer Google-Chrome-Erweiterung auf Github) oder ihn anweisen kann, etwas Bestimmtes zu tun. Fast augenblicklich bekommt man eine menschenähnliche Antwort auf praktisch jede Anfrage: Vom Verfassen von Aufsätzen und Reden über Recherchen und Zusammenfassungen, von Beiträgen in sozialen Medien bis hin zum Schreiben oder Debuggen von Code.
Die positiven Aspekte von ChatGPT für die Cybersicherheit
Im Moment kratzen wir noch an der Oberfläche, was den potenziellen Nutzen für die Cybersicherheit anbelangt. Aber es existiert eine Reihe von Szenarien, die sowohl aus Sicht von Unternehmen als auch aus Sicht von Sicherheitsverantwortlichen interessant sind:
1. Debugging von Code: DevSecOps-Teams können ChatGPT nutzen, um Fehler und Schwachstellen in Code und Webseiten zu identifizieren, bevor der Code übermittelt wird. Ein weiterer Bereich, in dem die Anwendung eine große Rolle spielen kann, ist das Erkennen logischer Fehler. Syntaxfehler findet jeder Compiler, aber das Erkennen von logischen Fehlern ist tatsächlich eindrucksvoll.
2. Cyberangriffe prognostizieren: ChatGPT kann dabei unterstützen, zurückliegende Angriffe zu analysieren und eine fundierte Antwort darauf zu geben, welche Taktiken die Angreifer verwendet haben oder zukünftig verwenden könnten. Theoretisch könnte ChatGPT in der Lage sein, KI-generierte Phishing-E-Mails zu identifizieren, aber so weit sind wir noch nicht.
3. Forensische Analysen durchführen: Möglicherweise lässt sich ChatGPT nutzen, um einen Sicherheitsvorfall zu untersuchen und Klarheit darüber zu erlangen, warum die Verteidigungsmaßnahmen nicht gegriffen haben. Ebenso dazu, welche Schritte man einleiten sollte, um die Lücken zu schließen. Ohne KI-Tools sind forensische Analysen und die manuelle Korrelation von Sicherheitsdaten, um die Ursache einer Datenschutzverletzung zu ermitteln mühsam und zeitaufwendig.
4. Sicherheit konfigurieren und automatisieren: Die meisten Sicherheitstools und -systeme müssen richtig konfiguriert werden, damit sie effizient arbeiten. Dank einiger technischer Hilfsmittel kann ChatGPT bei der Einrichtung von Firewall-Regeln, Intrusion Prevention-Systemen, Serverkonfigurationen, automatischen Updates usw. helfen und Skripte für eine sichere Systemkonfiguration erstellen. Es ist auch möglich, dass ChatGPT-basierte Anwendungen Fehlkonfigurationen erkennen.
5. Fachkräftemangel bewältigen: In der Cybersicherheitsbranche herrscht ein eklatanter Mangel an Fachkräften mit Cybersecurity-Skills. ChatGPT kann vielleicht dazu beitragen, diesen Mangel zu beheben. ChatGPT automatisiert bestimmte Prozesse und verringert so die Abhängigkeit von manuellen Interventionen. ChatGPT lässt sich zum Beispiel zum Erstellen von Berichten verwenden. IT-Sicherheitsabteilungen können sich auf anspruchsvolle Aufgabenstellungen konzentrieren, statt auf administrative Anforderungen.
Die negativen Aspekte von ChatGPT für die Cybersicherheit
Unternehmen und Cybersicherheitsexperten sind naturgemäß nicht die Einzigen, die von generativer KI profitieren. Tools wie ChatGPT werden dazu beitragen, die Cyberkriminalität anzutreiben und sogar die Fähigkeiten von Kriminellen zu verbessern. Denkbar sind Szenarien wie diese:
1. Phishing zielgerichteter durchführen: ChatGPT trägt dazu bei, die Textqualität erheblich zu verbessern (mit ChatGPT geschriebene E-Mails enthalten keine Rechtschreib- oder Grammatikfehler und nur wenige sachliche Fehler). Wenn ein Angreifer Phishing-E-Mails auf Arabisch oder Schwedisch schreiben muss, kann ChatGPT den Text in die jeweilige Landessprache übertragen. Angreifer können ChatGPT auch veranlassen, im Stil einer bestimmten Person (z. B. des CEO) zu schreiben (und eventuell die Stimme zu imitieren), was E-Mails und die gesamte Kommunikation noch überzeugender macht.
2. Fortschrittliche Social-Engineering-Techniken: Die Tatsache, dass ChatGPT menschenähnlich antwortet, macht Betrug mittels Social Engineering wesentlich einfacher. In Kombination mit KI-generierten Bilder von Personen (für LinkedIn-Betrug), Audio-Imitationen und Deepfake-Videos hat man die perfekten Zutaten für moderne Social-Engineering-Ansätze beisammen.
4. Nach Schwachstellen suchen: Genauso wie DevSecOps-Teams mit ChatGPT Code debuggen können, sind Angreifer in der Lage, nach Schwachstellen im Code zu suchen. Das gelingt mit ChatGPT auch in großem Umfang. Anstatt Zeile für Zeile manuell durchzugehen, können Angreifer ChatGPT einfach auffordern, den Code zu dekonstruieren und auf Schwächen und Sicherheitslücken hinzuweisen. So gelang es kürzlich einem Auditor von Smart Contracts mithilfe von ChatGPT Schwachstellen in einem Smart Contract zu identifizieren.
5. Fehlinformationen verbreiten: National-staatlich finanzierte Angreifer, staatlich geförderte terroristische Organisationen, Hacktivisten, Hate Groups usw. können ChatGPT benutzen, um Zwietracht zu säen, demokratische Werte zu untergraben sowie Verschwörungstheorien und computergestützte Propaganda in einem wesentlichen größeren Ausmaß zu verbreiten, als es Bots heute schon auf allen wichtigen Social-Media-Kanälen tun. KI-Systeme basieren auf einem riesigen Wissensschatz und wirken deshalb recht überzeugend – und sie können äußerst logisch argumentieren. Bots können sich als reale Menschen ausgeben oder dies vorgeben, authentische Inhalte zu einer Reihe von Themen erstellen und hohe Follower-Zahlen generieren. Wenn bestimmte Schlüsselwörter oder Themen in den sozialen Medien getriggert werden, kann ChatGPT so gestaltet werden, dass der Bot eine bestimmte Agenda verfolgt und vorantreibt.
6. Vorurteile und ethische Bedenken: Einer der wichtigsten Negativaspekte von ChatGPT ist seine Anfälligkeit für Vorurteile. ChatGPT spuckt Informationen auf der Grundlage der Daten aus, mit denen es gefüttert wurde. Beruhen diese Daten auf Vorurteilen, verstärken sich bestehende Ungleichheiten nicht unerheblich. Mit potenziell gefährlichen Konsequenzen. Cyberkriminelle könnten ChatGPT mit Falschinformationen speisen und so manipulieren, dass der Bot selbst falsche Informationen erzeugt. ChatGPT ist zudem sicher und „selbstbewusst“, was seine Antworten angeht, auch wenn sie manchmal schlichtweg falsch sind. Dazu kommen Datenschutz- und Sicherheitsbedenken. Falls das Modell Informationen sammelt und speichert, besteht das Risiko, dass diese Daten gestohlen, manipuliert oder missbraucht werden könnten, wenn sie nicht ordnungsgemäß geschützt sind.
ChatGPT hat zwar das Potenzial, sowohl von Angreifern als auch zur Verteidigung genutzt zu werden. Dennoch ist es wichtig, mögliche Risiken zu berücksichtigen. Die Leistungsfähigkeit von ChatGPT sollte immer Teil einer umfassenden Sicherheitsstrategie werden, die auch eine Evaluierung von SASE (Secure Access Service Edge) mit einschließt. Solange man diese Vorsichtsmaßnahmen beherzigt, gibt es kaum Grund zur Sorge. Zum jetzigen Zeitpunkt ist ChatGPT nicht in der Lage, etwas „Neues“ anzubieten. ChatGPT verbessert oder beschleunigt lediglich verschiedene Elemente im Lebenszyklus einer Sicherheitsverletzung. Es besteht allerdings kaum ein Zweifel, dass wir in naher Zukunft sehr viel mehr über KI-gestützte Tools innerhalb der Cybersicherheit und „Prompt Engineering“ hören werden.
(ID:49240549)
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.