Azure AI Agents erweitern klassische Sprachmodelle um kontrollierte Tool-Aufrufe, kontextabhängige Zustandsverwaltung und externe Datenquellen. Die Plattform kombiniert generative Künstliche Intelligenz (KI) mit reproduzierbarer Logik und schafft so die Grundlage für komplexe, agentengesteuerte Anwendungen.
Erstellen eines neuen Projektes für die Erstellung von KI-Agenten in Azure.
(Bild: T. Joos)
Hinter der Bezeichnung Azure AI Agent Service verbirgt sich ein skalierbares System zur Integration generativer Modelle in operationale Prozessketten. Das Framework abstrahiert Large Language Models zu agierenden Entitäten mit Zugriffsrechten, Kontextspeicherung und Aktionsschnittstellen. Agenten sind dabei nicht nur inferierende Instanzen, sondern systemisch eingebundene Prozessakteure, die deterministisch Aufgaben abarbeiten, Zustände manipulieren und externe Systeme ansteuern.
LLMs verfügen über generative Fähigkeiten, benötigen aber für konkrete Interaktion externe Funktionen. Das Tool-Use-Design-Pattern integriert APIs, Berechnungsmodule oder semantische Schnittstellen in den Ablauf der Agenten. Der Agent erkennt anhand der Nutzereingabe, ob eine Funktion aufgerufen werden muss, entscheidet selbstständig über das passende Werkzeug und interpretiert dessen Antwort im Handlungskontext. Komplexe Abläufe lassen sich durch kombinierte Aufrufe steuern. Fehlertoleranz und Zugriffskontrolle sind dabei kritisch. Dienste müssen verfügbar sein, auf definierte Rollen beschränkt und so implementiert, dass der Agent bei Ausfällen Fallback-fähig bleibt.
Bildergalerie
Unterschiede zu klassischen Chatbots und Vorteile von KI-Agenten
KI-Agenten unterscheiden sich grundlegend von herkömmlichen Chatbots. Während klassische Chatbots vordefinierte Dialogbäume abarbeiten und meist auf einfache Regelwerke oder Schlagworterkennung zurückgreifen, kombinieren KI-Agenten autonome Entscheidungslogik mit situationsabhängigem Handeln. Sie interpretieren komplexe Anforderungen, entwickeln eigenständig Lösungsstrategien und setzen diese mithilfe angebundener Werkzeuge um. Dabei greifen sie auf kontextabhängiges Kurzzeitgedächtnis sowie langfristige Wissensspeicher zu und passen ihr Verhalten dynamisch an.
Unternehmen profitieren davon in mehrfacher Hinsicht. KI-Agenten reduzieren manuelle Abläufe, entlasten Supportstrukturen und ermöglichen eine konsistente Bearbeitung individueller Anfragen ohne vordefinierte Skripte. Sie lassen sich mit vorhandenen Systemen über Programmierschnittstellen koppeln und agieren domänenspezifisch im Kundenservice, Vertrieb, Wissensmanagement oder internen Prozessen. Für Anwender entsteht ein interaktives System, das natürliche Sprache versteht, kontextsensitiv reagiert und nicht bloß antwortet, sondern Aufgaben eigenständig bearbeitet. Im Gegensatz zu klassischen Chatbots bleibt die Kommunikation dabei nicht auf einzelne Aussagen beschränkt, sondern bildet eine kontinuierliche Interaktion mit speicherbarem Verlauf und flexibel nutzbaren Funktionen.
Microsoft positioniert Azure AI Agents als Plattform für genau diese neue Generation intelligenter, handlungsfähiger Systeme. Auf Basis der Azure-Infrastruktur verbindet der Dienst leistungsfähige Sprachmodelle mit umfangreicher Tool-Integration, persistentem Speicher und orchestrierbaren Workflows. Damit lassen sich unternehmenseigene Agenten modellieren, trainieren und über bestehende Dienste hinweg einsetzen. Azure AI Agents erweitert die klassische KI-Anwendungsentwicklung um agentische Steuerungskomponenten, die in produktive Geschäftsprozesse eingebettet werden können und Struktur von Azure sowie Ressourcen und Daten eines Unternehmens nutzen können.
Systemarchitektur und Agentendefinition
KI-Agenten operieren nicht isoliert, sondern innerhalb einer übergeordneten Steuerungsstruktur. Agentische Frameworks wie Semantic Kernel, Autogen oder der Azure AI Agent Service definieren, wie Aufgaben verteilt, Kontexte verwaltet und Werkzeuge angebunden werden. Während Semantic Kernel auf industrielle Anforderungen und modulare Entwicklung in C#, Java und Python zielt, ermöglicht Autogen eine flexible Erprobung aktueller Forschungsansätze mit Fokus auf kollaborative Agentensysteme. Azure AI Agent Service hingegen integriert sich direkt in Azure-Dienste, eignet sich jedoch vor allem für Einzelagenten.
Ein Agent besteht aus einer Modellinstanz, einer logischen Aufgabenstruktur und einer aktiven Verbindung zu mindestens einer Wissensquelle. Unterstützt werden Azure-hosted Modelle wie GPT-4o, Open-Source-Modelle wie Llama 3 sowie benutzerdefinierte Varianten mit Fine-Tuning oder Low-Rank-Adaptation. Die Wissensintegration erfolgt über Retrieval-Augmented Generation. Dabei wird zur Laufzeit eine semantische Suche über angebundene Speicher ausgeführt. Die Resultate, zum Beispiel aus Azure AI Search, Microsoft Fabric, SharePoint oder externen HTTP-Endpunkten, werden in einen kontextualisierten Prompt eingebettet und dem Modell zur weiteren Verarbeitung übergeben.
Azure AI Foundry dient als zentrale Plattform zur Agentenkonfiguration. Neben Modellzuweisung und Wissensquellenverwaltung erfolgt hier auch die Festlegung des Aktionsspektrums. Über mehr als 1.400 Azure Logic Apps Connectors sowie eigene REST-APIs (per OpenAPI Definition) lassen sich agentenseitig beliebige Dienste ansprechen. Komplexe Funktionen werden über Azure Functions abgebildet. Die Datenübergabe erfolgt strukturiert über JSON-Payloads, inklusive Typvalidierung, Fehlerbehandlung und optionaler Authentifizierung mit Durchreichung der Benutzeridentität (Token Forwarding über Entra ID).
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Multi-Agenten-Topologien und Orchestrierung
Im Multi-Agent-Design-Pattern interagieren mehrere spezialisierte Agenten zur Erreichung eines Gesamtziels. Verschiedene Steuerungsvarianten kommen zum Einsatz: Beim Gruppenchat empfangen alle Agenten die gleichen Informationen, ein Steueragent delegiert Aufgaben gezielt weiter. Im Handoff-Pattern übergibt ein Agent die Bearbeitung sequenziell an den nächsten. Kollaborative Filterung erlaubt parallele Analysen aus verschiedenen Perspektiven. Steuerlogik, Interaktionsregeln und Terminierung müssen dabei präzise definiert sein. Rollenverteilung, Feedbackzyklen und Zustandstransfers zwischen Agenten sichern die Qualität der Gesamtausgabe.
Verschiedene Entwurfsebenen bestimmen die Qualität eines KI-Agenten. Raum beschreibt die Eingliederung in das Nutzungskonzept und verlangt klare Sichtbarkeit sowie flexible Verfügbarkeit innerhalb der Anwendung. Zeit adressiert die dynamische Weiterentwicklung über Interaktionsverläufe hinweg. Der Agent muss frühere Eingaben reflektieren und daraus ableiten können. Der Kern schließlich umfasst Unsicherheiten in der Planung und verlangt transparente Steuerungsmöglichkeiten. In der Praxis bedeutet das: Nachvollziehbare Systemmeldungen, nachvollziehbare Aktionslogik und gezielte Nutzersteuerung müssen integraler Bestandteil der Agenten-UX sein.
Agenten operieren zustandslos innerhalb kontextgebundener Threads. Diese enthalten systemseitig Metainformationen zur Historie, zum Autorisierungskontext und zur Aufgabenpriorität. Zur Koordination mehrerer Agenteninstanzen dient ein Orchestrator, typischerweise auf Basis von Semantic Kernel. Dieser verwaltet Zustandsübergänge, Sequenzen, Nebenläufigkeit und Eskalationsbedingungen. Alternativ können externe Orchestrierungssysteme wie LangChain oder Autogen angebunden werden. Die Kommunikation zwischen Agenten erfolgt über explizite API-Aufrufe oder persistente Messaging-Queues.
Die gesamte Infrastruktur lässt sich über Netzwerkisolation (Private Link), rollenbasierte Zugriffskontrolle (RBAC) und zentralisiertes Logging absichern. Auditierung, Telemetrie, Rate Limiting und Zugriffskontrolle werden durchgängig unterstützt. Agenten verhalten sich aus Sicht des Netzwerks wie interne Dienste, ohne Notwendigkeit für öffentliche IPs oder offene Ports. Datenhaltung kann vollständig innerhalb unternehmenseigener Ressourcen erfolgen.
Entwicklungsumgebung und Codeintegration
Die prototypische Agentenentwicklung beginnt im Azure AI Foundry Studio. Produktive Systeme werden über das Foundry SDK entwickelt, bevorzugt in Python. Der typische Entwicklungszyklus umfasst die Initialisierung eines Agentenobjekts, das Erzeugen eines kontextbezogenen Threads und die Übergabe einer Message-Instanz mit Payload. Diese Struktur folgt dem internen Modell des Agent Service: Agent → Thread → Message. Der Agent wertet die Nachricht unter Berücksichtigung von Modelllogik, Kontext und Wissenszugriff aus und initiiert bei Bedarf externe Aktionen.
Microsoft stellt in GitHub-Repositories vollständige Beispiele zur Verfügung. Diese beinhalten Single-Agent-Szenarien, koordinierte Multi-Agent-Architekturen, RAG-basierte Wissensintegration sowie Funktionsanbindungen mit Python und REST. Die Codebeispiele umfassen Authentifizierungslogik, Token-Vererbung, Funktionsaufrufe mit Parameterübergabe, Logging und asynchrone Verarbeitung.
Agentisches RAG: Retrieval, Planung und Handlungslogik kombiniert
Retrieval-Augmented Generation (RAG) erweitert sich im agentischen Kontext um Planungskompetenz, adaptive Ausführung und Tool-Nutzung. Agentisches RAG analysiert komplexe Anfragen, strukturiert sie in Teilaufgaben, identifiziert relevante Wissensquellen und ruft bei Bedarf externe Werkzeuge auf. Der Agent bewertet, ob die zurückgelieferten Informationen zur Beantwortung ausreichen, und iteriert bei Bedarf. Der Langzeitspeicher erlaubt es, Zwischenergebnisse zu archivieren, um zukünftige Anfragen effizienter zu bedienen. Die Kombination aus semantischer Suche, Tool-Calls und selbstreflexiver Kontrolle macht agentisches RAG zum zentralen Muster für wissensbasierte Agenten.
Produktionsnahe Anwendungen lassen sich über DevOps-Pipelines in Container-Umgebungen integrieren. Auch Trigger aus Event Grid, Logic Apps oder Webhooks sind vollständig unterstützt. Die Plattform erlaubt somit die Einbettung agentengestützter Entscheidungsprozesse in bestehende IT-Landschaften, ohne strukturelle Brüche. Ziel der Plattform bleibt der Aufbau deterministisch steuerbarer, kontextsensitiver Agenten, die unternehmenseigene Systeme, Daten und Dienste kontrolliert nutzen können.
Das Planning Design Pattern erlaubt es Agenten, komplexe Anforderungen in strukturierte Teilaufgaben zu zerlegen. Dabei entstehen hierarchisch modellierte Pläne, die sich entweder intern abarbeiten lassen oder gezielt an spezialisierte Agenten weiterleiten. Subtasks wie Flugbuchung, Hotelreservierung oder Aktivitätenplanung werden einzelnen Agenten zugewiesen, validiert und in einer standardisierten Struktur abgelegt. Durch definierte Schnittstellen lassen sich diese Daten in Drittsysteme integrieren oder als Trigger für externe Prozesse verwenden. Der Planungsmechanismus bildet die Grundlage für sequenzielle Steuerung und koordinierte Parallelverarbeitung.
Produktionsreife durch gezielte Evaluation und Fehlerbehandlung
Im Produktiveinsatz entscheidet die Qualität kontinuierlicher Evaluation über die Stabilität des Agentenbetriebs. Bewertungsmechanismen müssen auf jeder Stufe greifen, von der Modellantwort über die Werkzeugauswahl bis zur Qualität externer Dienste. Rückmeldungen aus der Nutzerschnittstelle, automatisierte Bewertungen durch LLMs und manuelle Prüfungen dienen als Grundlage für Verbesserungen. Fehlertoleranzmechanismen, Fallback-Strukturen und Ersatzfunktionen sichern den Betrieb bei Störungen. Systematische Evaluationspunkte machen Auswirkungen von Modellwechseln, Tool-Aktualisierungen oder veränderten Nutzungsanforderungen nachvollziehbar. Ein produktionsfähiger Agent operiert nicht nur autonom, sondern bleibt durchgängig überwachbar, steuerbar und anpassbar.