Agentic AI braucht Leitplanken BVDW fordert Governance statt Blindflug bei autonomen KI-Systemen

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Autonome KI-Agenten gelten als nächste Evolutionsstufe Künstlicher Intelligenz (KI). Ein Whitepaper des Bundesverband Digitale Wirtschaft (BVDW) warnt jedoch: Mit wachsender Autonomie steigen Risiken für Fairness, Sicherheit und Haftung. Damit wachse aber auch der Bedarf an klaren Kontroll- und Governance-Strukturen.

Der BVDW fordert für agentische KI-Systeme klare Eingriffsmöglichkeiten bis hin zur sofortigen Abschaltung.(Bild:  Midjourney / KI-generiert)
Der BVDW fordert für agentische KI-Systeme klare Eingriffsmöglichkeiten bis hin zur sofortigen Abschaltung.
(Bild: Midjourney / KI-generiert)

Agentisch KI unterscheidet sich grundlegend von klassischen KI-Anwendungen. Statt lediglich auf Eingaben zu reagieren, planen agentische Systeme eigenständig mehrstufige Aktionen, nutzen externe Tools, greifen auf Memory-Systeme zu und passen ihr Verhalten dynamisch an. Genau diese Autonomie verschärft laut dem BVDW zentrale Problemfelder, die aus früheren KI-Generationen bekannt sind, von Intransparenz über Bias bis hin zu ungeklärten Verantwortlichkeiten.

Daher setzt der BVDW im Whitepaper „Vertrauen & Verantwortung in Zeiten von Agentic AI“ auch gleich eine Leitformel an den Anfang: Je höher der Autonomiegrad eines KI-Systems, desto höher sind die ethischen, technischen und organisatorischen Anforderungen an seinen Einsatz. Als Konflikt beschreibt es unter anderem Effizienz gegen Nachvollziehbarkeit, plus die Frage nach Verantwortung bei Schäden durch autonome Entscheidungen.

Zur Einordnung stützt sich der BVDW auf eine Civey-Umfrage mit 2.504 Befragten. In der Bevölkerung lehnen 71 Prozent autonome KI im Alltag ab. In Unternehmen nutzen 28 Prozent KI-Agenten produktiv, weitere 14 Prozent planen den Einsatz. Ein erheblicher Teil bleibt abwartend oder ablehnend.

Als Antwort formuliert der BVDW ein Governance-Modell. Zentrales Element ist die Einteilung in fünf Autonomiestufen, von unterstützenden Systemen bis zu vollständig autonomen Agenten. Mit steigender Autonomie sollen Aufsicht, Protokollierung und Eingriffsmöglichkeiten zunehmen. Entscheidungen mit höherem Schadensrisiko erfordern explizite menschliche Kontrolle.

Technisch fordert das Papier eindeutige Identitäten für Agenten, klar abgegrenzte Zugriffsrechte und durchgängige Protokollierung von Entscheidungen. Für kritische Systeme nennt der Verband einen Kill Switch, mit denen Agenten sofort deaktiviert werden können. In vernetzten Multi-Agenten-Umgebungen warnt das Whitepaper vor Fehlerketten und unkontrollierter Weitergabe von Ergebnissen.

Beim Einsatz personenbezogener Daten verlangt der BVDW vor dem Start eine formalisierte Prüfung der Risiken für Betroffene. Entscheidungen mit rechtlicher Wirkung dürfen nicht vollständig unbeaufsichtigt laufen. Verantwortlichkeiten sollen organisatorisch festgelegt und technisch nachvollziehbar bleiben.

Zur Umsetzung empfiehlt der Verband ein internes Gremium, das Autonomiestufen vergibt, Risiken bewertet und Eingriffe freigibt. Autonome KI soll damit nicht blockiert, sondern kontrollierbar betrieben werden.

(ID:50689867)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung