Agentische KI erobert gerade die Cloud. Pioniere der digitalen Transformation ersetzen erfolgreich ganze Prozessketten durch KI-Agenten. Auch andere wollen sich — vorzugsweise im großen Maßstab — die Wolken vom Himmel holen.
Autonome KI-Agenten übernehmen immer häufiger komplexe Aufgaben wie Netzwerkmanagement, FinOps und Datenanalyse – oft im Zusammenspiel als Multi-Agenten-Systeme in Cloud-Umgebungen.
Bei agentischer KI (Engl. Agentic AI) ist von autonomen Systemen die Rede, die mit minimaler menschlicher Aufsicht definierte Ziele anstreben, indem sie eigenständig planen, schlussfolgern und handeln. Während klassische generative Modelle für Künstliche Intelligenz (KI) – etwa Large Language Models (LLMs) – auf externe Prompts angewiesen sind, zeichnet sich agentische KI durch eine Kombination aus Eigeninitiative und inhärenter „Zielstrebigkeit“ aus.
Agentik kombiniert generative Fähigkeiten mit Planungslogik, situativer Kontextverarbeitung und strategischer Zielverfolgung. KI-Agenten – häufig im Rahmen von Multi-Agenten-Systemen (MAS) – entwickeln Strategien, wägen ihre Handlungsoptionen ab und übernehmen schlussendlich die Verantwortung für komplexe Prozesse in dynamischen, realweltlichen Systemen.
Mit dem RAN Guardian Agent sorgte die Deutsche Telekom auf dem Mobile World Congress (MWC) 2025 in Barcelona für viel Aufregung. Die agentische KI für selbstheilende Mobilfunknetzwerke (RAN steht für Radio Access Network) wurde gemeinsam mit Google Cloud entwickelt, um Mobilfunknetzwerke (RAN – Radio Access Network) selbstständig zu überwachen und zu reparieren; dabei kommt Vertex AI als Plattform zum Einsatz, während Gemini 2.0 die technologische Grundlage bildet.
Die Agentik der Telekom bewerkstelligt ein breites Spektrum von Aufgaben von hoher technischen Komplexität. Dazu zählen die Erkennung von Anomalien, autonome Umsetzung von Korrekturmaßnahmen, proaktive Optimierung von Konfigurationen und vieles andere mehr. Mit autonomen, selbstheilenden Netzwerken möchte die Telekom die Servicequalität steigern und die Betriebskosten im Zaum halten. Mit dieser Lösung positioniert sich der Konzern als ein Vorreiter agentischer KI in der deutschen Telekommunikationsbranche.
Thoughtworks, eine globale Technologieberatung für digitale Innovationen, berichtet, dass praktisch jede Branche in Deutschland mit Agentic AI bereits experimentiert. Besonders häufig geschieht das im Zusammenhang mit Cloud-Anwendungen. Auf jeden Fall sind KI-Agenten im Geschäftsumfeld in aller Munde.
Mit Joule brachte die SAP eine neue Generation intelligenter Assistenzsysteme in die Cloud. Anders als klassische Chatbots oder statische Automatisierungen agiert Joule kontextsensitiv und proaktiv: Der Assistent durchdringt SAPs modulare Cloud-Landschaft – von S/4HANA über SuccessFactors bis hin zu Ariba – und generiert aus diesen isolierten Systemen integrierte Handlungsempfehlungen. Damit wird Joule zum digitalen Mittler zwischen Fachabteilungen, Daten und Entscheidungsprozessen.
Cloudbasierte Plattformen wie Liveperson und Servicenow setzen KI-Agenten ein, um Serviceanfragen zu bearbeiten, Workflows zu automatisieren und personalisierte Kundenerlebnisse zu schaffen. Mit KI-Agenten konnte Klarna, das vielversprechende FinTech-Start-up und Zahlungsdienstleister aus Schweden, den Umsatz pro Mitarbeiter auf fast eine Million US-Dollar steigern. DHL und Siemens sollen Berichten zufolge ihre Wartungskosten um 20 Prozent gesenkt haben, nachdem sie agentische KI-Modelle zur Auswertung von Sensordaten von Maschinen in Fertigungsprozessen eingesetzt hatten.
Laut einer Prognose von Gartner dürfte agentische KI bis 2029 voraussichtlich etwa 80 Prozent der üblichen Kundenservice-Anfragen eigenständig bearbeiten. Zum Vergleich: Noch im vergangenen Jahr (2024) stand im Bericht eine Null.
Anbieter der führenden Geschäftsautomatisierungsplattformen haben als erste auf agentische KI gesetzt.
(Bild: IDC)
Ein weiteres vielversprechendes Betätigungsfeld für Agentik bietet FinOps. Unternehmen wie Apptio, Cloudability und Turbonomic setzen bereits agentische KI ein, um das Cloud-Kostenmanagement proaktiv und autonom zu gestalten. KI-Agenten in ihren Lösungen können fortgeschrittene Konfigurationsanpassungen vornehmen, um galoppierende Kosten einer Cloud-Bereitstellung einzudämmen. Sie können aufkommende Ausgaben prognostizieren und Cloud-Richtlinien autonom anpassen.
AWS will mit agentischer KI reibungsloses Cloud-Onboarding von IT-Altlasten verwirklichen. Ein Dienst namens AWS Transform (seit Mai 2025 allgemein verfügbar) nutzt agentische KI für die Migration von Enterprise-Workloads in die Cloud. Die Lösung kombiniert AWS-eigene Migrationserfahrung mit Graph Neural Networks und Automated Reasoning, um komplexe Legacy-Systeme mit automatisiertem Code-Refactoring und Infrastruktur-Anpassungen zu „cloudifizieren“. Das funktioniert laut Amazon bis zu viermal schneller als alternative Ansätze und reduziert manuelle Eingriffe um bis zu 70 Prozent.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Agentische Plattformen im Vergleich: AWS, Azure, Google Cloud und Informatica
Azure AI Foundry
Der zentrale Einstiegspunkt in agentischer KI auf Azure schafft Azure OpenAI Service, der kognitive Kern der Plattform. Die Orchestrierungsschicht für die Grundlagenmodelle bildet der Der Copilot Stack mit der Copilot Runtime und dem Semantic Kernel (einem quelloffenen Framework zur Integration von Tools und Skills). Der Datenzugriff erfolgt via Microsoft Graph und Plug-ins.
Agenten auf Azure erlangen Handlungsfähigkeit auf drei Wegen: via Azure Functions (für zustandslose, eventgesteuerte Aktionen), Logic Apps (einen Low-Code-Orchestrierer für Enterprise-Systeme) und Durable Functions (für langlebige, zustandsbehaftete Agentenprozesse). Für Datenzugriff und Persistenz sorgen die Dienste Azure AI Search, Cosmos DB und Microsoft Graph.
Jeder Agent in der Microsoft-Cloud kann Plug-ins laden; die Copilot Runtime koordiniert sie im Hintergrund. So können mehrere Agenten sogar kooperativ zusammenarbeiten – etwa in einer Besprechung oder einem Projekt. Microsoft operationalisiert Agentik sogar im Office-Umfeld. Azure bringt Agenten direkt an den Arbeitsplatz.
Mit dem Azure AI Foundry Agent Service führt Microsoft seine bisherigen Bausteine zu einem kohärenten Agentik-Ökosystem zusammen. Der Dienst fungiert als eine zentrale Plattform zur deklarativen Erstellung, Verwaltung und Überwachung komplexer Agentensysteme. Die Plattform integriert KI-Modelle mit Enterprise-Tools wie SharePoint, Azure Logic Apps und OpenAPI-Schnittstellen unter Anwendung von Kontrollfunktionen. Mit einer Kombination aus Identitätenmanagement via Microsoft Entra, Inhaltsfilterung und Netzwerkisolation will Microsoft eine vertrauenswürdige agentische Cloud-Infrastruktur Realität werden lassen.
Der BMW-Konzern nutzt bereits diese Technologien in der Produktion. Der Luxusautohersteller entwickelt KI-Agenten, die Echtzeitdaten von 50.000 IoT-Sensoren auswerten. Diese Agenten erstellen autonom Wartungsprognosen für die Ausrüstung der Fertigungslinien von BMW. Eine Observability-Pipeline zeichnet jeden Schritt der Agenten via OpenTelemetry auf.
Google Vertex AI Agent Builder für Multi-Agenten-Ökosysteme
Agentische KI auf der Google Cloud Platform (GCP) stützt sich auf einen flexiblen Baukasten. Seine Stärken liegen im Zusammenspiel verschiedener Dienste rund um Unternehmensdaten, KI-Modelle, die Ausführungsumgebung und die Steuerung, die hier nahtlos ineinandergreifen. Das Denkvermögen agentischer KI auf GCP bildet eine vollständig verwaltete KI-Plattform namens Vertex AI mit Zugriff auf über 200 KI-Modelle und eine Reihe leistungsstarker Tools. Hier können Unternehmen ihre Geschäftsintelligenz auf ein neues Niveau heben, indem sie Grundlagenmodelle wie Google Gemini und/oder benutzereigene Transformer-Architekturen entwickeln, trainieren, bereitstellen und überwachen.
Die Handlungsebene der Agentik bilden die Dienste Cloud Functions, Workflows und Ray. Die Datenbasis liefern BigQuery und Dataflow. Die Ebene der Interaktionen entsteht aus dem Zusammenspiel von Dialogflow CX und API Gateway. Die Steuerung und Sicherheit umfassen die Funktionalität der Cloud-Dienste IAM, Policy Intelligence und Audit Logs. IAM (Identity and Access Management) regelt exakt, welche Ressourcen ein Agent ansprechen darf. Policy Intelligence bringt KI-gestützte Zugriffskontrolle ins Spiel, während Cloud Audit Logs alle Entscheidungen und Aktionen lückenlos dokumentiert – ein Muss für vertrauenswürdige Automatisierung. Für verteiltes Computing und parallele Verarbeitung von KI- und ML-Workloads hat Google ein Open-Source-Framework namens Ray entwickelt. Ein Ray Cluster auf Vertex AI ist eine skalierbare Laufzeitumgebung für verteiltes Rechnen; sie bildet die technologische Grundlage für die Entwicklung und den Betrieb von Agentic AI auf der GCP.
Chefetagen sprechen in Telefonkonferenzen mit Investoren immer mehr von „agentischer“ KI.
(Bild: Thoughtworks)
Google hat im April 2025 mit dem Agent Development Kit (ADK) einen quelloffenen Werkzeugkasten zur Erstellung komplexer Multi-Agenten-Systeme vorgestellt. ADK bringt eine semantische und programmatische Ordnung in die Welt der Multi-Agenten-Systeme der Google-Cloud. Es schafft die Grundlage, um spezialisierte Agenten zu einem kooperierenden Multi-Agenten-System zusammenzuschalten.
ADK agiert hierzu als eine Orchestrierungsschicht oberhalb der bestehenden Cloud-Dienste. Die einzelnen Agenten lassen sich als Container oder Python-Prozesse auf Cloud Run, Vertex AI Workbench oder in verteilten Ray-Clusters betreiben – je nach Komplexität und Skalierungsbedarf. Langzeitkontext, Agentenstatus und Episodenprotokolle lassen sich mit LangGraph über BigQuery speichern und abfragen. Damit wird ein kontinuierliches, speicherfähiges Agentengedächtnis möglich.
Mit dem Agent Development Kit etabliert Google einen quelloffenen Standard für den Aufbau intelligenter, autonomer Systeme. Dies ist ein Paradigmenwechsel weg von monolithischen KI-Modellen und hin zu modularen, dialogfähigen und proaktiven Agentennetzwerken. Im Zusammenspiel mit den leistungsfähigen Cloud-Diensten der GCP entsteht ein Ökosystem, in dem Multiagenten-Systeme autonom handlungs- und lernfähig sind. Dabei bleiben ihre Entscheidungen durchgängig nachvollziehbar.
Auch in der AWS-Welt entsteht eine Infrastruktur für agentische KI-Systeme – mit Bausteinen wie Amazon Bedrock, SageMaker und Step Functions. Den Ausgangspunkt für agentische KI im Cloud-Ökosystem von AWS schafft Amazon Bedrock. Dieser vollständig verwaltete Dienst ermöglicht Zugriff auf Grundlagenmodelle von Anbietern wie Anthropic (Claude), Meta (LLaMA), Mistral, AI21 Labs, Stability AI und Amazon Titan – im Cloud-Bereitstellungsmodell ganz ohne eigene Infrastruktur. Mit Prompt-Engineering, Tools wie LangChain oder Agents-as-a-Service-Frameworks lässt sich das Verhalten der Grundlagenmodelle zielgerichtet steuern.
Mit Agents for Bedrock bietet AWS eine serverlose Plattform für die Erstellung serverloser Agenten auf der Basis von Grundlagenmodellen. Unternehmen können eigene Modelle außerdem über SageMaker trainieren, hosten und verwalten – inklusive Inferenzpipelines, Feature-Stores und MLOps. Agentenspeicher und Kontext liefern hauptsächlich DynamoDB, S3 und RAG-Architekturen. Langfristiger Speicher und situativer Zugriff auf externes Wissen machen agentisches Denken belastbar und nachvollziehbar.
Die Interaktionen im KI-Stack von AWS übernehmen die Dienste Amazon Lex (die konversationelle Schnittstelle) und Amazon Kendra (eine semantische Suche in Daten). Diese Cloud-Tools erweitern die LLMs um die Fähigkeit, in natürlicher Sprache mit Menschen zu interagieren und Dokumente zu erforschen. Ihre Handlungsfähigkeit bescheren den Agenten die AWS-Dienste Lambda, Step Functions und EventBridge. AWS Lambda unterstützt zustandslose, ereignisbasierte Aktionen wahlweise im Push-Modell (Änderungen in einer Amazon S3-Bucket, Nachrichten in einer Amazon SQS-Warteschlange oder HTTP-Anfragen über API Gateway) oder mit Pull-Auslösern, also durch die aktive Abfrage von Ereignisquellen. Step Functions orchestrieren mehrschrittige Prozesse und die Kommunikation der Agenten untereinander. EventBridge ermöglicht eine regelbasierte Kommunikation zwischen Agenten und Systemen – etwa bei Reaktionen auf Datenänderungen, Sicherheitsereignisse oder externe Auslöser.
Die resultierenden Cloud-Agenten können ihre Erkenntnisse in konkrete Systemaktionen übersetzen, Abläufe planen oder automatisiert Entscheidungen ausführen. AWS bietet aktuell kein explizites Multi-Agenten-Toolkit wie Googles ADK. Unternehmen können die benötigte Funktionalität mithilfe von Containerdiensten (Fargate, ECS, EKS), Service Meshes (App Mesh) und durch serverlose Kommunikation (EventBridge, SNS/SQS) nachbauen. Projekte wie AutoGPT, LangChain Agents oder CrewAI lassen sich über Bedrock oder SageMaker integrieren.
Agenten von Informatica & Co.
Informatica (erst kürzlich von Salesforce übernommen) hat mit seiner Intelligent Data Management Cloud (IDMC) und dem neuen Service „AI Agent Engineering“ einen bemerkenswerten Innovationsschritt gewagt. Die Plattform ermöglicht es Unternehmen, KI-Agenten über verschiedene Cloud-Ökosysteme hinweg — von AWS über Azure, Databricks, Google Cloud bis hin zu Salesforce — zu erstellen und zu koordinieren. Das Ziel: Fragmentierung verhindern, Silos aufbrechen und agentische KI als Rückgrat für datengetriebene Automatisierung in hybriden Datenlandschaften etablieren.
Aktueller Stand der Implementierung von Agentik in privaten Unternehmen in Prozent am 12. Dezember 2024 (laut des Thoughtworks-Reports „Agentic AI: The business realities of a breakthrough technology“).
(Bild: Thoughtworks)
Mit Claire Agents, angekündigt im Mai, liefert Informatica spezialisierte digitale Assistenten, die zentrale Aufgaben im Datenmanagement übernehmen. Dazu zählen etwa der Data Quality Agent zur kontinuierlichen Überwachung und Bereinigung der Datenqualität, der Data Discovery Agent zur schnellen Identifikation relevanter Datenquellen oder der Data Lineage Agent, der die Herkunft und Transformation von Daten automatisch dokumentiert. Ergänzt wird das Portfolio durch Agents für Datenintegration, ELT-Prozesse, Modernisierung und explorative Analysen. Das Herzstück der Plattform von Informatica bildet ein zentrales moderiertes Datenkatalog. So treffen KI-Agenten ihre Entscheidungen auf Basis vertrauenswürdiger, kontextreicher Informationen.
IBM bietet mit Watsonx Orchestrate eine Plattform mit über 80 vorkonfigurierten Agenten für SAP, Salesforce und Servicenow. Oracle hat mit einer Plattform namens Oracle AI Agent Studio eine umfassende Umgebung für die Entwicklung und Bereitstellung maßgeschneiderter KI-Agenten speziell für ERP-Systeme geschaffen. Oracle Cloud Infrastructure (OCI) macht sich generative KI und REST-APIs zu Nutze, um KI-Agenten in bestehende Systeme einzubinden.
Cloud-FinOps und Results-as-a-Service: Wenn Agenten für Ergebnisse haften
Für Unternehmen mit komplexen Betriebsprozessen und hohem Kostendruck eröffnet sich mit agentischer KI ein neues Effizienzversprechen: Statt in klassische Softwarelizenzen oder konventionelle SaaS-Modelle zu investieren, zahlen sie stattdessen für konkrete Resultate – Stichwort Results-as-a-Service (RaaS). Dieses Bereitstellungsmodell — mit Cloud-FinOps im Hinterkopf — entkoppelt den Aufwand der Technologiebereitstellung von deren Kosten und verknüpft sie stattdessen direkt mit dem Geschäftswert.
Ein prominentes Beispiel liefert das US-Unternehmen Sierra AI mit Sitz in Texas. Die Plattform stellt autonome KI-Agenten für Kundenservice, Support-Management und Kommunikationsaufgaben bereit. Bezahlt wird nicht für die zugrunde liegende Rechenleistung oder Softwarekonfiguration, sondern für erledigte Aufgaben – etwa vollständig bearbeitete Kundenanfragen.
Agentische KI als Gamechanger für Cloud-Strategien
Mit dem Aufkommen von KI-Agenten bricht eine neue Phase der IT-Automatisierung an – hochgradig adaptiv, zustandsbewusst und ergebnisorientiert. Agentik verspricht eine Revolution der Cloud-Nutzung und neue Bereitstellungsmodelle von Cloud-Anwendungen, Stichwort: Results-as-a-Service. Unternehmen erhalten damit nicht nur Werkzeuge, sondern einen Partner auf Augenhöhe, der Leistung verspricht – und dafür einsteht. Der Weg dahin ist jedoch selbst für versierte Cloud-Nutzer nicht einfach.
Der aktuellen Umfrage von Thoughtworks zufolge erwarten fast 60 Prozent der Unternehmen eine schnelle Übernahme von Prototypen agentischer Systeme in den produktiven Einsatz. Tatsächlich erleben dies jedoch nur 30 Prozent der Pioniere. Die Experten von Thoughtworks raten Geschäftsführern, agentische KI mit „maßvollen Erwartungen und einer gewissen Skepsis“ zu betrachten.
Fazit der Autoren
Die Integration agentischer KI in Cloud-Umgebungen markiert einen Paradigmenwechsel in der Unternehmens-IT. Diese autonomen Systeme kombinieren adaptive Lernfähigkeit und nahtlose Cloud-Integrationen, um komplexe Betriebsabläufe zu transformieren.
* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali, Inc., USA.