Künstliche Intelligenz (KI) in der Praxis Diese positiven Erfahrungen machen Unternehmen mit KI-Agenten

Von Michael Matzer 6 min Lesedauer

Anbieter zum Thema

KI-Agenten sind einer der Top-Trends 2025, zumindest nach Ansicht der Analysten von der Gartner Group. Spannend ist vor diesem Hintergrund, in welchen Bereichen die ersten KI-Agenten-Projekte umgesetzt werden und wie die Erfahrungen der Anwender aussehen. Ein kleiner Überblick, ergänzt um Empfehlungen.

Derzeit können Anwender bereits aus drei Agententypen auswählen.(Bild:  Salesforce)
Derzeit können Anwender bereits aus drei Agententypen auswählen.
(Bild: Salesforce)

Die Analysten der Gartner Group prognostizieren, „dass bis 2028 mindestens 15 Prozent der täglichen Arbeitsentscheidungen autonom von agentenbasierter Künstlicher Intelligenz getroffen werden – verglichen mit null Prozent im Jahr 2024“, sagt Gene Alvarez, Vice President und Analyst. So werde agentenbasierte KI in KI-Assistenten integriert und in Software, SaaS-Plattformen, IoT-Geräte und Robotik eingebettet sein. Bereits jetzt, so Alvarez, würden sich viele Start-ups als Plattformen zur Erstellung von KI-Agenten positionieren, und Hyperscaler fügten Agentic AI zu ihren KI-Assistenten hinzu.

„Die Einsatzmöglichkeiten von KI-Agenten sind nahezu unbegrenzt“, weiß Michael Wallner, Head of Generative AI GTM EMEA Central bei Servicenow. „Sie können Kundenanfragen in Echtzeit beantworten, komplexe Anfragen an Mitarbeitende weiterleiten und maßgeschneiderte Angebote erstellen. Grundsätzlich sind sie in allen Branchen und Bereichen einsetzbar, sei es im Finance & Supply Chain Management, im Gesundheitswesen, im Banking, im HR oder im Kundenservice.“

Bildergalerie
Bildergalerie mit 6 Bildern

Kurt Muehmel, Leiter für KI-Strategie bei der KI-Plattform Dataiku, sieht als aktuellen Trend, dass seine Kunden mehrere LLMs und mehrere Agenten kombinieren. „Die KI-Agenten arbeiten im firmeninternen Backoffice, etwa für die Auswertung und Verarbeitung von internen Dokumenten, was besonders bei der Zusammenführung von strukturierten und unstrukturierten Daten eine Herausforderung sein kann, etwa im CRM. Zu den weiteren Aufgaben von KI-Agenten gehören Analytik, Codeschreiben, Verkaufsprognosen sowie die Erweiterung bestehender und Erstellung neuer Prozesse.“

Erfahrungen bei Brenntag

„Als wir Salesforce Agentforce auf der Dreamforce 2024 zum ersten Mal sahen, haben wir sofort enormes Potenzial für uns darin gesehen“, berichtet Michelle Wu, CDO und CTO beim Chemie-Distributor Brenntag. „Ein KI-Agent ist nicht dasselbe wie ein Chatbot oder ein Copilot. Was den Unterschied ausmacht, sind die Reasoning-Fähigkeiten – also das Kombinieren von Interaktionen, Daten und des kontinuierlichen Lernens.“

Wu berichtet aus dem Nähkästchen: „Wir nutzen Agentforce, um unseren Kundinnen und Kunden einen überragenden Service zu bieten, wie die Beantwortung von Fragen zu Aufträgen und Produkten rund um die Uhr, proaktive Updates zum Bestellstatus und die Empfehlung von wertschöpfenden Zusatzangeboten. Agentforce verstärkt unsere Kundenservice-Teams und deren Branchen- und Prozess-Know-how erheblich durch die Automatisierung und Rationalisierung von Ende-zu-Ende-Prozessen, schnellere Einblicke und die zuverlässige Datenverfügbarkeit in Echtzeit für jede Art von Anliegen.“ Das Fazit: „Damit gewinnen wir direkt 15 bis 20 Prozent der Zeit unserer Kundenrepräsentanten in Nordamerika, damit sie produktiver und proaktiver in der Kundeninteraktion werden können.“

Die globale Suchfunktion bei Siemens

Siemens setzt eine ganze Reihe von KI-Agenten ein, um seine globale Suchfunktion sicher, rechtskonform, schnell und bedienfreundlich funktionieren zu lassen. Bei Siemens sind die Projekt-Initiatoren Dr. Helge Aufderheide, Christoph Lumme, Fabian Fischer, and Dr. Markus Schweier überzeugt davon, dass eine Kombination von Services und Agenten zum Erfolg bei ihrer globalen Suchfunktion geführt hat. Siemens nutzt verschiedene Technologien von Amazon wie etwa Bedrock sowie als LLMs Anthropic Claude Sonnet und Haiku zur Agenten-Erstellung.

Obwohl der Prompt sehr unscheinbar aussieht, ist die Suchfunktion sowohl allgemein für Kunden, Mitarbeiter und Partner zugänglich als auch vollständig rechtskonform. Daher nutzt sie mittlerweile auch Amazon Bedrock Guardrails, um unangemessene Anfragen auszufiltern oder zu korrigieren. Mehrere Agenten bilden eine Kette.

Der Validierungsagent prüft als erster die im System per Prompt eintreffende Anfrage. Er vergleicht die Anfrage mit vordefinierten Kriterien, wie etwa unerlaubten Themen, Begriffen oder bekannten FAQs, um sicherzustellen, dass die Anfrage gültig und angemessen ist. Der Agent nimmt die Anfrage an oder weist sie zurück oder liefert postwendend eine passende FAQ-Antwort.

Nach dieser ersten Prüfung analysiert der Agent für Intentionsklassifizierung die Anfrage, um herauszufinden, was der Nutzer will. Dabei teilt der Agent die Anfrage in Kategorien wie „Produkt“, „Person“ oder „Kontaktanfrage“ ein. So hilft er, die Suche zu den relevantesten Ressourcen zu leiten. Der Sprach-Agent bestimmt zudem, in welcher Sprache die Anfrage gestellt worden ist, sodass die Eingabe in der gleichen Sprache beantwortet werden kann. Dadurch gewinnt die Antwort an Relevanz.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Am Backend warten bereits Agenten für die Produktsuche und die semantische Suche darauf, die geprüfte und klassifizierte Anfrage zu verarbeiten. Sie suchen in Wissensdatenbanken nach den relevantesten Inhalten. Damit sichergestellt ist, dass die gelieferte Information auch aktuell ist, wird der Suchagent für neue Fakten verwendet, um in einer zusätzlichen Wissensdatenbank zu suchen, die neue Informationen und Ankündigungen enthält, so etwa Pressemitteilungen und andere Aussendungen.

Sobald Suchergebnisse gesammelt sind, führt ein zu der gewünschten Information passender Zusammenfassungsagent die Suchergebnisse zusammen und verdichtet sie. Er extrahiert Schlüsselaspekte und -begriffe und erstellt eine konzise Zusammenfassung der Suchergebnisse. Das erleichtert es den Nutzern, die wesentliche Information schnell zu verstehen. In dieser Phase prüft der Agent den Kontext vor dem Hintergrund der neuen Fakten, die der Faktensuchagent geliefert hat.

Als abschließenden Schritt in jedem Abfragevorgang prüfen Leitlinien-Agenten die KI-generierte Antwort. Sie prüfen sie im Hinblick auf vordefinierte Regeln, Richtlinien und häufig gestellte Fragen. Diese wurden zuvor als Kontext für das verwendete Modell angelegt. Wenn diese Leitlinien die Antwort genehmigen, wird diese an das API-Gateway geschickt, welches seinerseits die Antwort an das jeweilige Endgerät des Nutzers schickt.

Sollte jedoch eine Antwort nicht die Prüfung des Leitlinien-Agenten bestehen, versucht der Neuformulierungsagent, die Antwort gemäß den Vorgaben der Leitplanken (des Guardrail-Services von AWS) umzuformulieren. Das Ergebnis wird erneut den Guardrail-Agenten zur Prüfung vorgelegt. Diese Vorgehensweise verringert die Notwendigkeit, Antworten zu entfernen, falls nur kleinere Details von den Leitplanken-Agenten entdeckt wurden.

Die erwähnten Autoren des Blogs berichten über ihre Erfolgsfaktoren: „Für jede Aufgabe in dieser Lösung haben wir mehrere Modelle miteinander verglichen und geprüft. Die Prioritäten für die Bewertung waren: zuverlässige Antworten in mehreren Sprachen zu geben, eine Latenzzeit unter einer Sekunde – besonders für Leitplanken-Anfragen – und Kosteneffizienz.“ Die Wahl fiel auf die LLMs Claude Sonnet und Claude Haiku von Anthropic, weitere Services kamen von AWS Bedrock.

Der zweite Erfolgsfaktor bestehe in einem gründlichen Management der Nutzer, um möglichst umfassende Leitplanken erstellen zu können. Zu den Nutzern gehören interne wie externe Interessenten, so etwa die Rechts- und Kommunikationsabteilung. Der dritte Faktor bestand in der gründlichen Planung und dem entsprechenden Design der Konfiguration der Leitplanken. Als vierten und letzten Erfolgsfaktor wird die kontinuierliche Validierung der Wirksamkeit der Guardrail-Mechanismen mithilfe automatisierter Tests genannt. Mehr Details verrät der Blog.

Empfehlungen von Experten

Dataiku bietet derzeit die Version 13.3 seiner Tools an, darunter „LLM Mesh“, berichtet Kurt Muehmel. „Damit lassen sich KI-Agenten erstellen, die an Kosteneffizienz, Datenqualität und Performance ausgerichtet sind“. Auf die Frage, wo sich KI-Agenten am sinnvollsten bereitstellen lassen, antwortet er: „Das hängt vom jeweiligen LLM ab, vom Cloud Provider und von der Größe des Agenten.“ Auch die Governance werde mithilfe des LLMs implementiert, und der Agent führe dann den Inferenzschritt aus. „Feintuning, Überwachung und ständige Evaluierung sind notwendige Voraussetzungen.“

„Wesentlich ist es, vor allem bei Agenten für die Kundeninteraktion, Leitplanken so eng zu fassen, dass der Agent seine Grenzen klar kennt und unmittelbar an einen Menschen übergibt, wenn er eine Frage außerhalb seiner Zuständigkeit gestellt bekommt“, so Liesel Klokkers, Solution Engineering Leader Industries bei Salesforce. „Bei der Prozessoptimierung ist es für die Akzeptanz durch Mitarbeiterinnen und Mitarbeiter wesentlich, KI-Agenten dort zu integrieren, wo die Arbeit tatsächlich stattfindet. Agentforce Agents beispielsweise können direkt vom Messenger Slack aus angesteuert werden, ohne die Anwendung verlassen zu müssen. Auf diese Weise fühlt sich die Interaktion mit dem Agenten für den Anwender an wie eine Unterhaltung mit einem menschlichen Kollegen.“

„Wir setzen immer auf den ‚human in the loop' – das heißt, auch wenn KI-Agenten die Arbeit erledigen, werden die Ziele von Menschen gesetzt und die sind es auch, die bei allen Entscheidungen das letzte Wort haben“, berichtet Michael Wallner von Servicenow. „AI Agents können die besten ‚Work Buddies‘ sein, dennoch ist ein verantwortungsvoller Umgang mit ihnen unerlässlich.“

(ID:50327244)