Sicherheit und Compliance bei Multiagent Systems Warum KI zur Gefahr für KI werden kann

Von Dipl.-Phys. Oliver Schonschek 3 min Lesedauer

Anbieter zum Thema

Bei Multiagenten-Systemen (MAS) und zusammengesetzter KI (Composite AI) arbeiten mehrere Künstliche Intelligenzen (KI) zusammen, um komplexe Aufgaben in Kooperation besser zu bewältigen. Doch Teamwork unter KIs bleibt nicht ohne Folgen für Sicherheit und Compliance, denn eine KI kann ein Risiko für die andere KI bedeuten. Wir geben einen Überblick.

Wenn mehrere Künstliche Intelligenzen kooperieren, lassen sich komplexere Aufgaben besser bewältigen. Teamwork unter KIs bleibt jedoch nicht ohne Folgen für Sicherheit und Compliance.(Bild:  © Naseem - stock.adobe.com)
Wenn mehrere Künstliche Intelligenzen kooperieren, lassen sich komplexere Aufgaben besser bewältigen. Teamwork unter KIs bleibt jedoch nicht ohne Folgen für Sicherheit und Compliance.
(Bild: © Naseem - stock.adobe.com)

Die Marktforscher von Gartner sehen zwei Seiten der generativen KI-Bewegung auf dem Weg zu mehr Fortschritt: Innovationen, die durch GenAI gefördert werden, und Innovationen, die den Fortschritt der Generativen KI selbst fördern werden.

So kann eine Zusammenarbeit verschiedener Künstlicher Intelligenzen wie bei uns Menschen dazu führen, dass verschiedene Stärken und Kompetenzen zusammenkommen und sich ergänzen. Gartner zählt zwei Formen der KI-Kooperation zu den wichtigsten KI-Innovationen der nächsten Jahre:

  • Composite AI bezeichnet die kombinierte Anwendung (oder Fusion) verschiedener KI-Techniken zur Verbesserung der Lerneffizienz, um den Grad an Wissensrepräsentation zu erweitern. Sie löst eine breitere Palette von Geschäftsproblemen auf wirksamere Weise, so das Analystenhaus.
  • Multiagent Systems (MAS) sind eine Art KI-System, das aus mehreren unabhängigen (aber interaktiven) Agenten besteht, von denen jeder in der Lage ist, seine Umgebung wahrzunehmen und Maßnahmen zu ergreifen.

Beide Entwicklungen können auf dem Weg zu einer Allgemeinen Künstlichen Intelligenz (Artificial General Intelligence, AGI) helfen. Anwendungsszenarien mit mehreren Agenten sind zudem sehr hilfreich bei stark kollaborativer Arbeit, wie zum Beispiel bei der Entwicklung in der Softwareindustrie, der intelligenten Produktion und der Unternehmensverwaltung, erklärt zum Beispiel Microsoft. Doch diese KI-Innovationen haben nicht nur Vorteile, sondern bringen auch viele Herausforderungen mit sich.

KI-Teamwork braucht Ordnung und Harmonie

Wenn KI-Agenten zusammenarbeiten sollen, können ähnliche Herausforderungen auftreten wie bei uns Menschen: Das Zusammenspiel muss koordiniert ablaufen, damit jeder seine Aufgabe macht und die Reihenfolge der Aufgaben eingehalten wird. Die Agenten als Team-Mitglieder müssen miteinander kommunizieren und ihren Status austauschen. Mögliche Zielkonflikte im Team müssen rechtzeitig erkannt und beseitigt werden.

Eine Forschergruppe am MIT hat dies so beschrieben: Mehrere Sprachmodelle (LLMs), die harmonisch zusammenarbeiten, sind besser als eins. Es stellt sich aber die Frage, wie die notwendige Harmonie sichergestellt werden kann.

Multi-KI bedeutet auch mehrfache und neue Risiken

Wenn man an die Risiken bei Nutzung einer KI denkt, hat man gleich eine lange Liste vor Augen. Mögliche Schwachstellen und Unzulänglichkeiten können in jeder der KI-Systeme vorhanden sein, die als Team zusammenwirken sollen. Aber es geht nicht nur um die Vervielfachung der Gefahren, es entstehen auch neue.

So können die Resultate einer KI die andere trainieren und beeinflussen, das soll so sein, damit sie zusammen und voneinander lernen können. Wenn aber zum Beispiel eine KI mit „vergifteten Daten“ manipuliert wurde, dann verbreitet sich die Vergiftung auf die anderen KI. Für einen solchen Angriff (Data Poisoning) reicht es, wenn eine KI in der Gruppe anfällig ist, die anderen „stecken“ sich dann später an.

Je nach Abhängigkeit der KI-Agenten untereinander kann auch der Ausfall eines Agenten die anderen blockieren und sogar ebenfalls zum Ausfall bringen. Wie in einer Lieferkette breitet sich ein Vorfall auf die anderen Agenten aus.

Auch die Vertraulichkeit kann indirekt in Mitleidenschaft gezogen werden: Eine Information, die ein KI-Agent nur dem anderen Agenten preisgibt, „plaudert“ dieser an Dritte aus.Offensichtlich hängt die Sicherheit, Compliance, Vertrauenswürdigkeit und Zuverlässigkeit einer KI dann von dem ganzen KI-Team ab. Ebenso leiden Transparenz, Erklärbarkeit und Datenschutz eines KI-Systems, wenn das MAS oder die Composite AI darin Mängel aufweisen.

Der Weg zur Multi-KI-Sicherheit

So schön harmonische und vertrauensvolle Zusammenarbeit im Team auch ist, bei KI-Agenten sollte „Misstrauen“ die Regel sein, genauer gesagt, Zero Trust, also kein ungeprüftes Anfangsvertrauen. Bevor ein KI-Agent auf den anderen reagiert oder diesem Daten weitergibt, sollte klar sein, welche Risiken damit verbunden sind, in welchem Sicherheitsstatus sich die andere KI also zum Beispiel befindet.

Da es aber schwierig und aufwendig ist, fortlaufend den Sicherheitsstatus einer KI zu bewerten, wird es wohl eine KI sein, die die anderen KI-Agenten überwacht und kontrolliert. Man könnte auch sagen, dass zu einem MAS und einer Composite AI immer auch eine Wächter-KI gehören sollte, die das KI-Team im Blick behält.

Die Prüfung der Wächter-KI ist dann genauso zentral und bedeutsam wie das Audit von Security-Lösungen. Wie zum Beispiel ein Passwort-Manager besonders sicher sein muss, um nicht alle Passwörter zu gefährden, gilt dies dann auch für die Wächter-KI. Multi-KI-Sicherheit braucht also Wachleute im Team.

(ID:50024458)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung