Cyberabwehr der Zukunft Wenn KI-Agenten die Regie im SOC übernehmen

Von Berk Kutsal 3 min Lesedauer

Anbieter zum Thema

Die Ära der passiven KI-Assistenten in der IT-Sicherheit soll sich dem Ende zuneigen. Während Unternehmen heute noch auf Chatbots und einfache Analyse-Tools setzen, stehe die nächste Evolutionsstufe bereits vor der Tür: Autonome Multi-Agenten-Systeme (MAS). Der Cybersecurity-Spezialist Ontinue prognostiziert einen radikalen Wandel, der bis zum Jahr 2030 in einem weitgehend vollautomatisierten Security Operations Center (SOC) münden wird. Doch während die technologische Vision besticht, werfen die praktischen Implikationen kritische Fragen auf.

Orchestrierte Verteidigung: Können Multi-Agenten-Systeme die Cyberabwehr revolutionieren?(Bild:  KI-generiert)
Orchestrierte Verteidigung: Können Multi-Agenten-Systeme die Cyberabwehr revolutionieren?
(Bild: KI-generiert)

Bisher agierten Künstliche Intelligenzen (KI) in der Cybersecurity meist als isolierte Spezialisten. Ein Tool analysierte Log-Dateien, ein anderes schlug Alarm. Doch die Zukunft gehört der Kollaboration. „KI-Agenten werden die Cybersecurity maßgeblich prägen“, erklärt Theus Hossmann, Chief Technology Officer bei Ontinue. Der entscheidende Sprung geschehe durch die Vernetzung: Ein „Investigator-Agent“ untersuche Vorfälle, bewerte die Lage und delegiere die Abwehr an einen „Response-Agenten“. Diese Kommunikation finde in Echtzeit statt. Ein Tempo, bei dem der Mensch als klassischer Entscheider längst nicht mehr mithalten kann.

Das Versprechen: Von der Abwehr zur Vorhersage

Die Experten von Ontinue skizzieren einen Drei-Phasen-Plan für diese Transformation. Von der aktuellen Zusammenarbeit isolierter Agenten über die Etablierung standardisierter Schnittstellen bis hin zur vollautomatisierten Selbstoptimierung der Systeme.

Die langfristige Vision für das Jahr 2030 ist so beeindruckend wie provokant: Das vollautomatisierte SOC. In diesem Szenario übernimmt die Maschine den gesamten Security-Lebenszyklus. Von der Erkennung über die Abwehr bis hin zur automatisierten Berichterstellung und der präventiven Selbstoptimierung der Systeme soll alles autonom ablaufen. Der Fokus verschiebt sich damit von der reaktiv-getriebenen Abwehr hin zu einer prädiktiven, also vorhersagenden Verteidigung. Und der Mensch rücke in die Rolle des strategischen Planers und „KI-Trainers“.

Hossmann rät Fachkräften daher zu einer schnellen Umorientierung: „Die Frage nach der Einbettung von KI-Agenten stellt sich gar nicht, denn dieses Vorhaben ist obligatorisch.“ Wer in der Branche bestehen wolle, müsse lernen, wie man diese Systeme programmiert, steuert und überwacht. Der Mensch wird vom Operateur zum Architekten und Kontrolleur einer digitalen Armee, die niemals schläft.

Subtile Risse in der Vision der totalen Autonomie

Doch so schlüssig die Roadmap auf dem Papier wirkt, so riskant ist die Umsetzung in der komplexen Realität von Unternehmensnetzwerken. Die Branche steht hier vor einem klassischen Dilemma:

  • Das Delegations-Risiko: Wenn Agenten eigenständig untereinander „verhandeln“ und Maßnahmen einleiten, droht ein Transparenzverlust. Kritiker geben zu bedenken, dass eine KI, die auf maximale Sicherheit getrimmt ist, im Zweifelsfall auch kritische Geschäftsprozesse stoppen könnte. Ein Risiko für das operative Geschäft, das viele Unternehmen bisher scheuen.
  • Die Illusion der Fehlerfreiheit: KI-Modelle neigen zu Halluzinationen oder können durch gezielte Manipulation der Eingangsdaten (Prompt Injection) in die Irre geführt werden. In einem Multi-Agenten-System könnte sich ein solcher Fehler wie ein Lauffeuer verbreiten, da nachfolgende Agenten auf den potenziell falschen Informationen ihrer „Kollegen“ aufbauen.

Der Mensch als „Sicherheitsleine“

Um die Kontrolle nicht vollständig an die Algorithmen zu verlieren, wird der von Experten geforderte Human-in-the-loop (HITL)-Ansatz zum unverzichtbaren Korrektiv. Wahre Sicherheit wird wohl kaum durch totale Autonomie entstehen, sondern durch ein System von „Check-and-Balances“. Die KI übernimmt dabei die mühsame Datenaufbereitung und schlägt konkrete Handlungen vor, doch bei kritischen Eingriffen in die Infrastruktur bleibt der Mensch der letzte Gatekeeper.

Doch das Modell der „Sicherheitsleine“ hat auch eine gefährliche Schwachstelle: den Menschen selbst. In der Fachwelt wird diskutiert, ob menschliches Eingreifen die Lage nicht oft sogar verschlimmbessert. Wenn ein Multi-Agenten-System in Millisekunden eine hochkomplexe, koordinierte Abwehrreaktion einleitet, kann ein menschlicher Operator, der unter Stress steht und nur einen Bruchteil der Daten überblickt, diese Strategie durch ein „Veto“ ruinieren.

Dieses „Verschlimmbessern“ tritt meist dann auf, wenn der Mensch die Logik der KI nicht schnell genug durchschaut und aus einem Bauchgefühl heraus handelt. Das Ergebnis ist ein fataler Zeitverzug oder die Unterbrechung einer bereits laufenden, korrekten Schutzmaßnahme. Wahre Sicherheit im Jahr 2030 bedeutet daher nicht nur, die KI zu kontrollieren, sondern auch den Menschen so zu trainieren, dass er nicht zum Sand im Getriebe einer eigentlich perfekt laufenden Maschine wird.

Evolution mit Vorbehalt

Ontinue beschreibt zweifellos die technologische Marschrichtung der nächsten Jahre. Doch der „Heilige Gral“ der Cybersecurity ist nicht die bloße Automatisierung, sondern die Beherrschbarkeit dieser neuen Komplexität. Der Weg zum vollautomatisierten SOC bis 2030 wird weniger ein technologischer Sprint als vielmehr eine Vertrauensfrage: Sind wir bereit, die Kronjuwelen unserer IT-Infrastruktur an Agenten zu übergeben, deren Entscheidungswegen wir im Ernstfall kaum noch folgen können?

In einer Welt, in der auch Angreifer zunehmend auch auf KI setzen, scheint dieser Schritt zur totalen Automatisierung alternativlos. Doch die wahre Kunst wird darin liegen, die Geschwindigkeit der Maschinen mit der Urteilskraft des Menschen zu koppeln, ohne dass die „Sicherheitsleine“ zum Bremsklotz wird.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50770469)