Jenseits klassischer Chatbots Was Azure AI Agents wirklich leisten

Von Thomas Joos 6 min Lesedauer

Anbieter zum Thema

Azure AI Agents erweitern klassische Sprachmodelle um kontrollierte Tool-Aufrufe, kontextabhängige Zustandsverwaltung und externe Datenquellen. Die Plattform kombiniert generative Künstliche Intelligenz (KI) mit reproduzierbarer Logik und schafft so die Grundlage für komplexe, agentengesteuerte Anwendungen.

Erstellen eines neuen Projektes für die Erstellung von KI-Agenten in Azure.(Bild:  T. Joos)
Erstellen eines neuen Projektes für die Erstellung von KI-Agenten in Azure.
(Bild: T. Joos)

Hinter der Bezeichnung Azure AI Agent Service verbirgt sich ein skalierbares System zur Integration generativer Modelle in operationale Prozessketten. Das Framework abstrahiert Large Language Models zu agierenden Entitäten mit Zugriffsrechten, Kontextspeicherung und Aktionsschnittstellen. Agenten sind dabei nicht nur inferierende Instanzen, sondern systemisch eingebundene Prozessakteure, die deterministisch Aufgaben abarbeiten, Zustände manipulieren und externe Systeme ansteuern.

LLMs verfügen über generative Fähigkeiten, benötigen aber für konkrete Interaktion externe Funktionen. Das Tool-Use-Design-Pattern integriert APIs, Berechnungsmodule oder semantische Schnittstellen in den Ablauf der Agenten. Der Agent erkennt anhand der Nutzereingabe, ob eine Funktion aufgerufen werden muss, entscheidet selbstständig über das passende Werkzeug und interpretiert dessen Antwort im Handlungskontext. Komplexe Abläufe lassen sich durch kombinierte Aufrufe steuern. Fehlertoleranz und Zugriffskontrolle sind dabei kritisch. Dienste müssen verfügbar sein, auf definierte Rollen beschränkt und so implementiert, dass der Agent bei Ausfällen Fallback-fähig bleibt.

Bildergalerie

Unterschiede zu klassischen Chatbots und Vorteile von KI-Agenten

KI-Agenten unterscheiden sich grundlegend von herkömmlichen Chatbots. Während klassische Chatbots vordefinierte Dialogbäume abarbeiten und meist auf einfache Regelwerke oder Schlagworterkennung zurückgreifen, kombinieren KI-Agenten autonome Entscheidungslogik mit situationsabhängigem Handeln. Sie interpretieren komplexe Anforderungen, entwickeln eigenständig Lösungsstrategien und setzen diese mithilfe angebundener Werkzeuge um. Dabei greifen sie auf kontextabhängiges Kurzzeitgedächtnis sowie langfristige Wissensspeicher zu und passen ihr Verhalten dynamisch an.

Unternehmen profitieren davon in mehrfacher Hinsicht. KI-Agenten reduzieren manuelle Abläufe, entlasten Supportstrukturen und ermöglichen eine konsistente Bearbeitung individueller Anfragen ohne vordefinierte Skripte. Sie lassen sich mit vorhandenen Systemen über Programmierschnittstellen koppeln und agieren domänenspezifisch im Kundenservice, Vertrieb, Wissensmanagement oder internen Prozessen. Für Anwender entsteht ein interaktives System, das natürliche Sprache versteht, kontextsensitiv reagiert und nicht bloß antwortet, sondern Aufgaben eigenständig bearbeitet. Im Gegensatz zu klassischen Chatbots bleibt die Kommunikation dabei nicht auf einzelne Aussagen beschränkt, sondern bildet eine kontinuierliche Interaktion mit speicherbarem Verlauf und flexibel nutzbaren Funktionen.

Microsoft positioniert Azure AI Agents als Plattform für genau diese neue Generation intelligenter, handlungsfähiger Systeme. Auf Basis der Azure-Infrastruktur verbindet der Dienst leistungsfähige Sprachmodelle mit umfangreicher Tool-Integration, persistentem Speicher und orchestrierbaren Workflows. Damit lassen sich unternehmenseigene Agenten modellieren, trainieren und über bestehende Dienste hinweg einsetzen. Azure AI Agents erweitert die klassische KI-Anwendungsentwicklung um agentische Steuerungskomponenten, die in produktive Geschäftsprozesse eingebettet werden können und Struktur von Azure sowie Ressourcen und Daten eines Unternehmens nutzen können.

Systemarchitektur und Agentendefinition

KI-Agenten operieren nicht isoliert, sondern innerhalb einer übergeordneten Steuerungsstruktur. Agentische Frameworks wie Semantic Kernel, Autogen oder der Azure AI Agent Service definieren, wie Aufgaben verteilt, Kontexte verwaltet und Werkzeuge angebunden werden. Während Semantic Kernel auf industrielle Anforderungen und modulare Entwicklung in C#, Java und Python zielt, ermöglicht Autogen eine flexible Erprobung aktueller Forschungsansätze mit Fokus auf kollaborative Agentensysteme. Azure AI Agent Service hingegen integriert sich direkt in Azure-Dienste, eignet sich jedoch vor allem für Einzelagenten.

Ein Agent besteht aus einer Modellinstanz, einer logischen Aufgabenstruktur und einer aktiven Verbindung zu mindestens einer Wissensquelle. Unterstützt werden Azure-hosted Modelle wie GPT-4o, Open-Source-Modelle wie Llama 3 sowie benutzerdefinierte Varianten mit Fine-Tuning oder Low-Rank-Adaptation. Die Wissensintegration erfolgt über Retrieval-Augmented Generation. Dabei wird zur Laufzeit eine semantische Suche über angebundene Speicher ausgeführt. Die Resultate, zum Beispiel aus Azure AI Search, Microsoft Fabric, SharePoint oder externen HTTP-Endpunkten, werden in einen kontextualisierten Prompt eingebettet und dem Modell zur weiteren Verarbeitung übergeben.

Azure AI Foundry dient als zentrale Plattform zur Agentenkonfiguration. Neben Modellzuweisung und Wissensquellenverwaltung erfolgt hier auch die Festlegung des Aktionsspektrums. Über mehr als 1.400 Azure Logic Apps Connectors sowie eigene REST-APIs (per OpenAPI Definition) lassen sich agentenseitig beliebige Dienste ansprechen. Komplexe Funktionen werden über Azure Functions abgebildet. Die Datenübergabe erfolgt strukturiert über JSON-Payloads, inklusive Typvalidierung, Fehlerbehandlung und optionaler Authentifizierung mit Durchreichung der Benutzeridentität (Token Forwarding über Entra ID).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Multi-Agenten-Topologien und Orchestrierung

Im Multi-Agent-Design-Pattern interagieren mehrere spezialisierte Agenten zur Erreichung eines Gesamtziels. Verschiedene Steuerungsvarianten kommen zum Einsatz: Beim Gruppenchat empfangen alle Agenten die gleichen Informationen, ein Steueragent delegiert Aufgaben gezielt weiter. Im Handoff-Pattern übergibt ein Agent die Bearbeitung sequenziell an den nächsten. Kollaborative Filterung erlaubt parallele Analysen aus verschiedenen Perspektiven. Steuerlogik, Interaktionsregeln und Terminierung müssen dabei präzise definiert sein. Rollenverteilung, Feedbackzyklen und Zustandstransfers zwischen Agenten sichern die Qualität der Gesamtausgabe.

Verschiedene Entwurfsebenen bestimmen die Qualität eines KI-Agenten. Raum beschreibt die Eingliederung in das Nutzungskonzept und verlangt klare Sichtbarkeit sowie flexible Verfügbarkeit innerhalb der Anwendung. Zeit adressiert die dynamische Weiterentwicklung über Interaktionsverläufe hinweg. Der Agent muss frühere Eingaben reflektieren und daraus ableiten können. Der Kern schließlich umfasst Unsicherheiten in der Planung und verlangt transparente Steuerungsmöglichkeiten. In der Praxis bedeutet das: Nachvollziehbare Systemmeldungen, nachvollziehbare Aktionslogik und gezielte Nutzersteuerung müssen integraler Bestandteil der Agenten-UX sein.

Agenten operieren zustandslos innerhalb kontextgebundener Threads. Diese enthalten systemseitig Metainformationen zur Historie, zum Autorisierungskontext und zur Aufgabenpriorität. Zur Koordination mehrerer Agenteninstanzen dient ein Orchestrator, typischerweise auf Basis von Semantic Kernel. Dieser verwaltet Zustandsübergänge, Sequenzen, Nebenläufigkeit und Eskalationsbedingungen. Alternativ können externe Orchestrierungssysteme wie LangChain oder Autogen angebunden werden. Die Kommunikation zwischen Agenten erfolgt über explizite API-Aufrufe oder persistente Messaging-Queues.

Die gesamte Infrastruktur lässt sich über Netzwerkisolation (Private Link), rollenbasierte Zugriffskontrolle (RBAC) und zentralisiertes Logging absichern. Auditierung, Telemetrie, Rate Limiting und Zugriffskontrolle werden durchgängig unterstützt. Agenten verhalten sich aus Sicht des Netzwerks wie interne Dienste, ohne Notwendigkeit für öffentliche IPs oder offene Ports. Datenhaltung kann vollständig innerhalb unternehmenseigener Ressourcen erfolgen.

Entwicklungsumgebung und Codeintegration

Die prototypische Agentenentwicklung beginnt im Azure AI Foundry Studio. Produktive Systeme werden über das Foundry SDK entwickelt, bevorzugt in Python. Der typische Entwicklungszyklus umfasst die Initialisierung eines Agentenobjekts, das Erzeugen eines kontextbezogenen Threads und die Übergabe einer Message-Instanz mit Payload. Diese Struktur folgt dem internen Modell des Agent Service: Agent → Thread → Message. Der Agent wertet die Nachricht unter Berücksichtigung von Modelllogik, Kontext und Wissenszugriff aus und initiiert bei Bedarf externe Aktionen.

Microsoft stellt in GitHub-Repositories vollständige Beispiele zur Verfügung. Diese beinhalten Single-Agent-Szenarien, koordinierte Multi-Agent-Architekturen, RAG-basierte Wissensintegration sowie Funktionsanbindungen mit Python und REST. Die Codebeispiele umfassen Authentifizierungslogik, Token-Vererbung, Funktionsaufrufe mit Parameterübergabe, Logging und asynchrone Verarbeitung.

Agentisches RAG: Retrieval, Planung und Handlungslogik kombiniert

Retrieval-Augmented Generation (RAG) erweitert sich im agentischen Kontext um Planungskompetenz, adaptive Ausführung und Tool-Nutzung. Agentisches RAG analysiert komplexe Anfragen, strukturiert sie in Teilaufgaben, identifiziert relevante Wissensquellen und ruft bei Bedarf externe Werkzeuge auf. Der Agent bewertet, ob die zurückgelieferten Informationen zur Beantwortung ausreichen, und iteriert bei Bedarf. Der Langzeitspeicher erlaubt es, Zwischenergebnisse zu archivieren, um zukünftige Anfragen effizienter zu bedienen. Die Kombination aus semantischer Suche, Tool-Calls und selbstreflexiver Kontrolle macht agentisches RAG zum zentralen Muster für wissensbasierte Agenten.

Produktionsnahe Anwendungen lassen sich über DevOps-Pipelines in Container-Umgebungen integrieren. Auch Trigger aus Event Grid, Logic Apps oder Webhooks sind vollständig unterstützt. Die Plattform erlaubt somit die Einbettung agentengestützter Entscheidungsprozesse in bestehende IT-Landschaften, ohne strukturelle Brüche. Ziel der Plattform bleibt der Aufbau deterministisch steuerbarer, kontextsensitiver Agenten, die unternehmenseigene Systeme, Daten und Dienste kontrolliert nutzen können.

Das Planning Design Pattern erlaubt es Agenten, komplexe Anforderungen in strukturierte Teilaufgaben zu zerlegen. Dabei entstehen hierarchisch modellierte Pläne, die sich entweder intern abarbeiten lassen oder gezielt an spezialisierte Agenten weiterleiten. Subtasks wie Flugbuchung, Hotelreservierung oder Aktivitätenplanung werden einzelnen Agenten zugewiesen, validiert und in einer standardisierten Struktur abgelegt. Durch definierte Schnittstellen lassen sich diese Daten in Drittsysteme integrieren oder als Trigger für externe Prozesse verwenden. Der Planungsmechanismus bildet die Grundlage für sequenzielle Steuerung und koordinierte Parallelverarbeitung.

Produktionsreife durch gezielte Evaluation und Fehlerbehandlung

Im Produktiveinsatz entscheidet die Qualität kontinuierlicher Evaluation über die Stabilität des Agentenbetriebs. Bewertungsmechanismen müssen auf jeder Stufe greifen, von der Modellantwort über die Werkzeugauswahl bis zur Qualität externer Dienste. Rückmeldungen aus der Nutzerschnittstelle, automatisierte Bewertungen durch LLMs und manuelle Prüfungen dienen als Grundlage für Verbesserungen. Fehlertoleranzmechanismen, Fallback-Strukturen und Ersatzfunktionen sichern den Betrieb bei Störungen. Systematische Evaluationspunkte machen Auswirkungen von Modellwechseln, Tool-Aktualisierungen oder veränderten Nutzungsanforderungen nachvollziehbar. Ein produktionsfähiger Agent operiert nicht nur autonom, sondern bleibt durchgängig überwachbar, steuerbar und anpassbar.

(ID:50490909)