Kommentar von Michael Hunger, Neo4j Model Context Protocol (MCP) – das Protokoll für KI-Agenten und Tool-Integration

Von Michael Hunger 7 min Lesedauer

Anbieter zum Thema

Seit seiner Einführung durch Anthropic hat das Model Context Protocol (MCP) schnell Verbreitung gefunden. Das offene Protokoll für KI-Anwendungen bietet eine universelle Schnittstelle, um externe Datenquellen, Tools, Infrastrukturen und Daten-APIs als Kontext für das Sprachmodell eines KI-Agenten einzubinden. Ziel ist es, die Integration zu vereinfachen und den Endnutzern breite Möglichkeiten zur Nutzung von APIs bieten. Das sollten Entwickler dazu wissen.

Der Autor: Michael Hunger beschäftigt sich seit mehr als 35 Jahren leidenschaftlich mit Softwareentwicklung. In den vergangenen 13 Jahren hat er an der Open-Source-Graphdatenbank Neo4j in verschiedenen Funktionen gearbeitet, zuletzt als Leiter der Produktinnovation und Entwicklerstrategie. Sein aktueller Fokus liegt auf generativer KI, Cloud-Integrationen und Developer Experience.(Bild:  Neo4j)
Der Autor: Michael Hunger beschäftigt sich seit mehr als 35 Jahren leidenschaftlich mit Softwareentwicklung. In den vergangenen 13 Jahren hat er an der Open-Source-Graphdatenbank Neo4j in verschiedenen Funktionen gearbeitet, zuletzt als Leiter der Produktinnovation und Entwicklerstrategie. Sein aktueller Fokus liegt auf generativer KI, Cloud-Integrationen und Developer Experience.
(Bild: Neo4j)

Anthropic hat MCP entwickelt, um Sprachmodelle (LLMs) nahtlos mit externen Ressourcen zu verbinden. Inzwischen existieren zehntausende MCP-Server, das Protokoll wurde in zahlreiche Clients integriert und es sind Marktplätze und Tools rund um MCP entstanden. Kein Wunder, denn MCP verbessert die Interoperabilität und erlaubt Nutzern, Client, LLM und MCP-Server flexibel nach Bedarf zu kombinieren. Zudem bietet MCP eine hervorragende Developer Experience: für schnelles Prototyping, einfache Workflow-Orchestrierung und kontextbezogene Anwendungen.

Das MCP-Ökosystem

MCP ist ein offenes, standardisiertes Protokoll für KI, das ein wachsendes Ökosystem von Tools, Services und Clients (Hosts in MCP Lingo) ermöglicht. Nutzer greifen direkt aus ihrer bevorzugten KI-Anwendung oder -Framework auf unterschiedlichste Dienste zu, ob über eine Chat-Oberfläche wie Claude, Copilot oder Amazon Q, eine IDE (Integrated Development Environment) wie Visual Studio Code, Cursor oder Windsurf, oder integrierte AI-Anwendungen. Entwickler müssen ihre Dienste nur einmal definieren, um sie allen kompatiblen Clients zugänglich zu machen. Anthropic hat diesen Ansatz gezielt gefördert, um Agenten-Anwendungen den Zugriff auf vielfältige externe Ressourcen zu erleichtern.

In mancher Hinsicht erinnert MCP an die Einführung von HTTP und später REST – Architekturen, die das heutige Internet mit all seinen Interaktionen und Integrationen erst möglich gemacht haben. Ähnlich wie das Language Server Protocol (LSP) die Arbeit mit Programmiersprachen IDE-übergreifend vereinfacht hat, schafft auch MCP eine gemeinsame Grundlage für Agenten und Tools. Anthropic selbst nutzt USB-C als Metapher für die Universalität von MCP.

Auswirkungen auf GenAI und Agenten-Systeme

Gerade für KI-Anwendungen bringt MCP entscheidende Vorteile. Ob KI-Assistent oder komplexes GenAI-System: Jedes AI-System muss sich mit internen und externen Tools verbinden können. Wenn ein sicheres, offenes Protokoll den Integrationsaufwand reduziert, können sich Entwickler auf den eigentlichen Mehrwert ihrer Anwendung konzentrieren.

Dabei funktioniert die Integration in beide Richtungen: MCP-Tools lassen sich leicht in bestehende agentenbasierte Frameworks einbinden, während vorhandene Agenten und Tools über MCP-Server zugänglich werden. Beispiele gibt es von OpenAI, AWS, crewAI oder LangGraph. MCP senkt die Integrationshürde deutlich, etwa beim Zugriff auf verschiedenste Datenquellen und beim Verarbeiten ihrer Informationen in einem System. Damit lassen sich auch Ansätze wie RAG und GraphRAG nahtlos in dieses Setup einfügen und als vollwertige MCP-Server nutzen. MCP beschränkt sich nicht nur auf den Datenzugriff – es deckt auch Aktionen ab. Damit sind diese Systeme aktionsfähig und können theoretisch komplette, komplexe Abläufe eigenständig ausführen.

Nutzer können mit MCP nicht nur für Geschäfts- oder Anwendungsprozesse handeln, sondern auch auf Infrastrukturebene agieren, zum Beispiel für Cloud Service APIs. Die Integration in KI-gestützte IDEs und Entwickler-Tools macht den Entwicklungsworkflow deutlich produktiver. KI-gestützte Assistenten managen beispielsweise Services wie Cloudflare, GitHub, Supabase, Stripe, Neo4j, ohne das IDE zu verlassen. MCP unterstützt dabei nicht nur API-Zugriffe über Tools, sondern auch Konzepte wie Prompts (interaktive Vorgaben für Nutzung des Servers), Sampling (als Rückkanal zum LLM) und Ressourcen (für die Bereitstellung statischerer Informationen).

Zentrale Komponenten und Konzepte

Um zu verstehen, wie MCP die Verbindung zwischen KI-Agenten und externen Systemen ermöglicht, lohnt sich ein Blick auf die zentralen Bausteine des Protokolls. MCP trennt klar zwischen Host, Client und Server – jede dieser Rollen erfüllt eine definierte Aufgabe im Ablauf der Tool-Nutzung. Die Kommunikation erfolgt über ein standardisiertes, bidirektionales Protokoll.

  • MCP Host: Der MCP Host ist die Anwendung oder das Tool, mit dem der Nutzer interagiert – etwa Claude Desktop oder Windsurf. Er aktiviert konfigurierte MCP-Server, erstellt und verwaltet MCP-Clients und steuert in den meisten Fällen auch die Kommunikation mit dem LLM, um Tool-Aufrufe auszulösen und Ergebnisse zu verarbeiten.
  • MCP Client: Der MCP Client verbindet sich mit einem oder mehreren MCP-Servern – lokal (per STDIO oder HTTP) oder remote (über HTTP - SSE oder Streaming). Nach einer ggf. notwendigen Authentifizierung stellt er dem Host alle verfügbaren Tools, Prompts und Ressourcen bereit, damit diese im Nutzerkontext gezielt eingesetzt werden können.
  • MCP Server: Der MCP Server stellt Tools (Funktionen oder APIs), Ressourcen (statische Informationen) und Prompts (Anweisungsvorlagen) bereit. Er fungiert als Schnittstelle für zugrundeliegende Fähigkeiten, die Datenquellen und APIs anbinden.
  • Agent Loop: Das Modell fragt beim Client ab, welche Server mit welchen Fähigkeiten verfügbar sind. Anschließend plant es Aktionen. Dabei wählt das LLM gezielt verschiedene Tools, Ressourcen und Prompts von MCP-Servern aus, um eine Nutzeranfrage iterativ zu bearbeiten. Dann lässt es diese ausführen und verarbeitet erhaltene und vorher gespeicherte kontextuelle Informationen, um festzustellen, ob ein weiterer Durchgang notwendig ist, bis die Aufgabe erfüllt ist.

Beispiel einer MCP-Architektur mit Client und Server sowie Tools, Ressourcen und Prompts(Bild:  Neo4j)
Beispiel einer MCP-Architektur mit Client und Server sowie Tools, Ressourcen und Prompts
(Bild: Neo4j)

Diese modulare Architektur ermöglicht sichere, skalierbare und wiederverwendbare Tool-Integrationen. Sie ist flexibel kombinierbar, unterstützt schnelle Adaption durch Entwickler und erlaubt es, die jeweils passenden Clients, LLMs und MCP-Server einzusetzen – unabhängig davon, ob ein Chatbot, Coding Assistant oder ein autonomer Agent entwickelt wird.

Anwendungsbeispiel: GraphRAG und Gedächtnis für KI Agenten

Eine der nützlichen Anwendungen von MCP ist die automatische Speicherung von gewonnenen Einsichten in der Form von Knowledge-Graphen. Man kann sich das wie ein PKM (Personal Knowledge Management) für einen Agenten oder Assistenten vorstellen, dass Informationen über Chat-Sitzungen und Interaktionen hinweg ablegt, erweitert und abruft.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Klassische KI-Assistenten verlieren den Kontext zwischen Sitzungen. Was aber, wenn ein Agent nicht nur Fakten behalten, sondern auch deren Beziehungen zueinander verstehen und dauerhaft speichern kann? Genau hier können Knowledge-Graphen ansetzen, wobei durch MCP deren Integration erheblich vereinfacht.

Anstelle unstrukturierter Textfragmente oder flacher Verlauf-Historie ermöglicht eine Graphdatenbank eine persistente und erklärbare Memory-Struktur in Form eines Knowledge-Graphen. Während der Interaktion mit einem Agenten, bei der Ausführung von Aufgaben oder beim Erwerb neuen Wissens entsteht eine nachvollziehbare Gedächtnisstruktur, die über mehrere Sitzungen hinweg erhalten bleibt.

Memory ist nur ein Beispiel dafür, wie strukturierte Daten als Knowledge-Graph KI-Anwendungen unterstützen. Mit GraphRAG wird kontextbezogenes Wissen – etwa in den Bereichen Transport, Biotechnologie, Handel oder Cybersicherheit – als Tool für den Agenten zugänglich gemacht.

Grenzen und Herausforderungen von MCP

MCP steht als offenes Protokoll noch am Anfang und viele offene Punkte müssen geklärt werden, ehe sich das Protokoll zuverlässig in produktive KI-Systeme integrieren lässt. Seit März sind viele der großen Anbieter - Google, Microsoft, AWS, OpenAI an der Entwicklung des MCP-Standards beteiligt und engagieren sich besonders in den Themen, die für den Geschäftseinsatz kritisch sind.

Besonders relevant sind dabei die Themen Sicherheit, Beobachtbarkeit und Auffindbarkeit.

  • Sicherheit: Die Sicherheitsarchitektur von MCP zeigt aktuell noch Schwächen, etwa bei Autorisierung, Zugriffskontrolle, Credential-Management und dem Schutz vor LLM-Injection-Angriffen. Lokale Server, die nur direkt mit einem MCP-Host-Client oder über eine lokale HTTP-Schnittstelle kommunizieren, sind weitgehend vor öffentlichem Zugriff geschützt. Öffentliche LLM-Server hingegen müssen explizit abgesichert werden. Ein zweites Spezifikationsupdate vom Juni 2025 bringt hier Fortschritte: Durch die Integration von OAuth2 mit JWT-Tokens können sich öffentliche HTTPS-Server im Namen des Nutzers sicher authentifizieren. Dabei muss jetzt der MCP Server als Ressourcen-Server nur die Token verifizieren und nicht wie bisher den gesamten Authentifizierungs-Prozess (IDP) handhaben.
  • Beobachtbarkeit: Derzeit ist die Telemetrie von MCP – etwa bei Systemen wie TinyBird – noch eingeschränkt. Monitoring- und Logging-Funktionalitäten sind nur begrenzt integriert. Die Verantwortung für skalierbare Bereitstellungen, Zugriffskontrolle und Rate-Limiting liegt vollständig beim Betreiber des Servers. Geplant sind Verbesserungen wie ein feineres Zugriffsmanagement über Manifeste, rollenbasierte Zugriffskontrolle (RBAC) sowie Zertifizierung und Verifikation über ein zentrales Registry-System.
  • Auffindbarkeit: Ein besonderes Problem stellt für nicht-technische Nutzer die Auffindbarkeit vertrauenswürdiger MCP-Server dar – vergleichbar mit der Rolle, die Docker Hub für Container spielt. Die MCP-Roadmap sieht deshalb ein offizielles Registry-System vor, das Versionierung, Downloads, Auffindbarkeit, Checksummen und Zertifizierung umfasst. Da MCP-Server in unterschiedlichen Programmiersprachen umgesetzt sind, muss diese Plattform verschiedenste Paketierungs- und Deployment-Formate unterstützen. Anthropic, AWS, Microsoft und Google haben mit ihren AI Marktplätzen die ersten Schritte in diese Richtung unternommen.

Zukunft von MCP

Durch den offenen Standard, das transparente Spezifikationsverfahren und die Beiträge zahlreicher Beteiligter hat MCP das Potenzial, sich zu einem stabilen und praxistauglichen Protokoll zu entwickeln. Es vereinfacht die Integration für alle Beteiligten – von Entwicklern bis zu Anbietern – und schafft Effizienz auf beiden Seiten.

Zentrale Weiterentwicklungen sind bereits im Gange, insbesondere in den Bereichen Sicherheit, Betrieb, Tooling und Enterprise-Fähigkeit (z. B. Federation). Auch bei der Modellintegration – etwa Streaming oder multimodale Szenarien – tut sich viel. Immer mehr Anbieter von Daten- und Systemlösungen integrieren MCP in ihre Produkte, um reibungslose Anbindung zu ermöglichen darunter OpenAI, Google Cloud Platform, AWS und Microsoft. Was die Integration in Graphdatenbanken angeht: Neo4j hatte bereits im Dezember 2024 die erste Datenintegration auf Tool-Ebene mit MCP umgesetzt – ergänzt um Infrastruktur-Anbindung und Knowledge-Graph-Memory in den eigenen MCP-Servern.

MCP ist nicht nur ein Protokoll. Es steht für einen grundlegenden Paradigmenwechsel. Während sich der Fokus von Prompt-Hacking hin zu systematischer KI-Architektur verschiebt, ist die modulare und kombinierbare Nutzung von Tools, Memory und Daten mittels MCP ein zentraler Bestandteil. Mit Knowledge-Graphen als intelligenter Memory- und Datenebene arbeiten KI-Agenten nicht nur kontextbezogener, sondern auch deutlich leistungsfähiger.

(ID:50539271)