KI-Agenten im Entwickler-Stack Docker erweitert Compose für KI-Agenten

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Docker macht ernst mit KI-Agenten. Entwickler können ab sofort Agenten, Modelle und Tools direkt in Docker Compose einbinden. Neu ist auch Docker Offload, das rechenintensive Workloads in die Cloud verlagert. Unterstützt werden Plattformen wie Google Cloud und Microsoft Azure.

Docker bringt KI-Agenten in Compose. Entwickler können Agenten-Workloads deklarieren, lokal testen und in der Cloud skalieren. Cloud-Offload startet im Beta-Test.(Bild:  Docker)
Docker bringt KI-Agenten in Compose. Entwickler können Agenten-Workloads deklarieren, lokal testen und in der Cloud skalieren. Cloud-Offload startet im Beta-Test.
(Bild: Docker)

Docker öffnet seine Plattform für agentenbasierte Anwendungen. Mit den neuen Funktionen in Docker Compose sollen sich Agenten, KI-Modelle und Tools künftig ebenso deklarativ in YAML-Dateien definieren lassen wie klassische Container-Dienste. Entwickler sollen komplette Agenten-Stacks in einer Compose-Datei beschreiben, lokal starten oder per Cloud-Deployment ausführen können.

Neben der Definition in YAML ermögliche Docker Compose auch den sicheren Zugriff auf externe Tools über das offene Model Context Protocol (MCP). Dieses Protokoll soll eine standardisierte Anbindung für Agenten-Architekturen schaffen. Die Compose-Integration unterstütze unter anderem die Frameworks CrewAI, Embabel, LangGraph, Vercel AI SDK und Spring AI.

„Was Docker vor zehn Jahren für Microservices getan hat, übertragen wir jetzt auf intelligente Agenten“, erklärt Tushar Jain, Engineering-Chef von Docker. Ziel sei es, Agenten mit derselben Einfachheit und Sicherheit wie klassische Container nutzbar zu machen.

Cloud-Offload für schwere Jobs

Parallel führt Docker das Feature Docker Offload ein, das aktuell in einer geschlossenen Beta wohl läuft. Es richte sich an Entwickler, die GPU-lastige Modelle lokal nicht mehr betreiben können. Offload erlaube es, solche Workloads in Cloud-Umgebungen auszulagern, ohne den lokalen Entwicklungsprozess zu verändern.

Docker Offload soll den Zugriff auf leistungsfähige Cloud-GPUs ermöglichen, während die lokale Entwicklungsumgebung bestehen bleibt. Die Ausführung großer Modelle oder Multi-Agent-Systeme erfolge dabei in der Cloud, während der Entwickler weiter lokal arbeitet. Die Steuerung des Offloads könne flexibel an Datenschutz-, Kosten- oder Performance-Anforderungen angepasst werden.

Docker integriere die Funktion direkt in Docker Desktop. Auch der gewohnte Befehl docker compose up soll bei Bedarf die Cloud-Ressourcen automatisch nutzen können.

Partner binden sich eng an

Die Neuerungen gehen mit einer breiten Partneroffensive einher. Google Cloud unterstützt ab sofort den Compose-Standard in Cloud Run. Damit lassen sich Anwendungen direkt über den Befehl gcloud compose up serverlos in der Cloud starten. Microsoft Azure will zeitnah eine ähnliche Integration für Azure Container Apps nachreichen.

Neben den großen Hyperscalern binden sich wohl auch mehrere Agenten-Frameworks in die neuen Compose-Funktionen ein. Dazu zählen CrewAI, Embabel, LangGraph, Google ADK, Spring AI und das Vercel AI SDK. Diese Integration soll es Entwicklern erleichtern, Agenten-Architekturen direkt in bestehenden Compose-Workflows zu nutzen.

Verfügbarkeit auf einen Blick

Docker Compose für Agenten-Workloads steht ab sofort zur Verfügung. Docker Offload startet als Beta für registrierte Nutzer. Die Integration in Google Cloud Run ist live, der Support für Azure Container Apps folge in Kürze. Das Model Context Protocol wird als Open Source bereitgestellt.

(ID:50480344)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung