Kommentar von Massimiliano Marcon, MongoDB MCP und Datenarchitektur werden entscheidend für KI-Produktivität

Von Massimiliano Marcon 6 min Lesedauer

Anbieter zum Thema

KI-Agenten gelten als nächste große Evolutionsstufe der Künstlichen Intelligenz (KI). Doch ohne Zugriff auf relevante Unternehmensdaten bleiben sie blind. Der offene Standard MCP bringt erstmals Struktur in das KI-Ökosystem und verknüpft Daten, Tools und Agenten in einem System. Voraussetzung ist eine Datenbasis, die vernetzt, konsistent und zugänglich ist.

Der Autor: Massimiliano Marcon ist Director of Product Management bei MongoDB(Bild:  MongoDB)
Der Autor: Massimiliano Marcon ist Director of Product Management bei MongoDB
(Bild: MongoDB)

Der Unterschied zu bisherigen KI-Systemen liegt im Grad der Autonomie. Statt auf Nutzereingaben zu reagieren, erkennen KI-Agenten eigenständig Aufgaben, zerlegen sie in Einzelschritte und führen Prozesse aktiv aus. Ihr Nutzen hängt dabei direkt von der Datenverfügbarkeit ab. Unternehmen stehen vor der Frage, welche infrastrukturellen Voraussetzungen nötig sind, damit KI-Agenten produktiv eingesetzt werden können.

Mehr als Assistenz: Was unterscheidet KI-Agenten von bisherigen LLMs?

Während klassische LLMs ausschließlich reaktiv arbeiten, sind KI-Agenten deutlich eigenständigere digitale Akteure, die Aufgaben erkennen, in Einzelschritte unterteilen, priorisieren und ausführen können. Auch heute schon eingesetzte KI-Systeme unterstützen zwar komplexe Anwendungsfälle wie Preisoptimierung oder Rückgabeprozesse – aber sie tun es nicht eigenständig, sondern nur auf Basis entsprechender Prompts.

KI-Agenten dagegen können auf Basis eines LLMs (und oft weiterer Komponenten) autonom handeln. Sie sind in der Lage, übergeordnete Ziele zu verfolgen, nicht nur einzelne Eingaben. Sie planen mehrschrittige Abläufe selbstständig, etwa die Analyse eines Produktmangels, die Organisation eines Rückrufs und die Information von Kunden. Sie überwachen Fortschritte, holen bei Bedarf weitere Informationen ein und entscheiden über nächste Schritte. Dabei interagieren sie nicht nur mit Nutzern, sondern auch mit anderen Agenten in einem Ökosystem.

Vielfältige Einsatzmöglichkeiten für nahezu jede Branche

KI-Agenten eröffnen dadurch neue Chancen, Effizienz, Reaktionsgeschwindigkeit und Skalierbarkeit zu steigern. Die Anwendungsfälle unterscheiden sich dabei von Branche zu Branche. Dazu zählen beispielsweise im Handel die vollständig automatisierte Bearbeitung von Reklamationen und Rückläufern, die dynamische Preis- und Bestandsoptimierung, der personalisierte Produktsupport oder die intelligente Planung von Lieferketten.

In der Fertigungsindustrie übernehmen KI-Agenten das Monitoring ganzer Produktionslinien, steuern Wartungseinsätze autonom und koordinieren Beschaffungsprozesse auf Basis von Echtzeitdaten aus Maschinen, Sensoren und ERP-Systemen. In der Banken- und Finanzbranche könnten KI-Agenten etwa das automatisierte Onboarding neuer Geschäftskunden inklusive Know-Your-Customer-Prüfungen, Risikoanalyse, Schnittstellenanbindung und Prozessfreigaben übernehmen. Auch dabei handelt es sich um einen komplexen, mehrstufigen Ablauf, der bislang manuelle Interaktion und verschiedene Systeme erfordert.

Die Herausforderung: Daten sind da – aber schwer zugänglich

All diese Stärken können KI-Agenten aber nur ausspielen, wenn der sichere, datenschutzkonforme Zugriff auf Tools, Datenbanken oder APIs gewährleistet ist. In vielen Unternehmen zeigt sich dabei ein bekanntes Bild: Daten gibt es reichlich. Aber sie befinden sich in unterschiedlichen Formaten an verschiedenen, häufig nicht miteinander vernetzten Orten. Kundeninformationen liegen in CRM-Systemen, Produktdaten in PIM-Lösungen, Prozesse in ERP-Systemen.

Diese Datensilos sind nicht nur eine technologische, sondern auch eine organisatorische Herausforderung. Viele Daten sind nur für bestimmte Abteilungen zugänglich, andere unterliegen regulatorischen Einschränkungen. Und selbst wenn der Zugriff technisch möglich und sicher ist, fehlt oft eine gemeinsame Sprache, mit der KI-Agenten diese Daten verstehen, gesetzeskonform verarbeiten und nutzen können.

MCP: Ein Universalschlüssel für KI-Anwendungen

Abhilfe sollen standardisierte Schnittstellen schaffen. An dieser Stelle setzt das revolutionäre, offene Model Context Protocol (MCP) für den Datenaustausch zwischen KI und Datenquellen an. Erste Berichte im Frühjahr 2025 bezeichneten MCP enthusiastisch als „USB-C für KI“. Der Vergleich veranschaulicht, was MCP ist: ein universeller Anschluss, der mit den Geräten verschiedenster Hersteller kompatibel ist – standardisiert, interoperabel und zukunftssicher.

Ursprünglich vom Start-up Anthropic initiiert, um komplexere KI-Anwendungen als die heutigen zu ermöglichen, gewann MCP schnell an Relevanz. Microsoft kündigte die Integration in seine Entwicklungsplattform und sein Betriebssystem, OpenAI-CEO Sam Altman kündigte die Übernahme ebenfalls an und sprach dabei von einem entscheidenden Schritt für die nächste KI-Innovationswelle. Der MongoDB MCP-Server ging Anfang Mai an den Start, und zahlreiche Open-Source-Projekte implementierten MCP-Spezifikationen bereits in den ersten Wochen nach der Ankündigung.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ohne passende Datenarchitektur bleibt MCP wirkungslos

Mit MCP bekommt die Welt endlich das fehlende Werkzeug an die Hand, das Daten und KI zusammenbringt und damit die Voraussetzung für mehr KI-Produktivität schafft. Auch Entwickler haben es durch MCP leichter: Statt für jede Datenquelle eigene Integrationen zu schreiben, können sie über einen MCP-kompatiblen Server auf alle benötigten Daten zugreifen. Das spart Zeit, reduziert Komplexität und schafft eine konsistente Entwicklungsumgebung – besonders wichtig angesichts knapper Ressourcen, fehlender Fachkräfte und hohem Innovationsdruck.

Doch selbst der beste Standard hilft wenig, wenn die Datenarchitektur nicht mithalten kann. Viele heutige Datenbanken wurden in einer Zeit entwickelt, in der Speicherplatz teuer war und Daten strukturiert in Tabellen abgelegt wurden. Um die Grundlage für KI-Agenten zu schaffen, müssen Daten von isolierten Assets zur lebendigen, vernetzten Wissensbasis werden, die jederzeit und kontextbezogen zur Verfügung steht.

Daten sind die Voraussetzung für Produktivität und Skalierbarkeit

Als LLMs in der zweiten Jahreshälfte 2023 in der Mitte von Wirtschaft und Gesellschaft ankamen und der KI-Hype im Jahr 2024 seinen Höhepunkt erreichte, lotete die Mehrzahl der Unternehmen schnell die Möglichkeiten für KI-Integrationen in ihre Geschäftsmodelle aus. Sie erkannten rasch das Potenzial der Technologie für die Automatisierung und Modernisierung von Unternehmensprozessen.

Wie bei jedem Hype spielte auch das eine Rolle, was in der englischen Sprache gern mit der Abkürzung FOMO bezeichnet wird: Fear of Missing Out, die Angst, eine entscheidende technische Revolution zu verpassen und gegenüber dem Wettbewerb ins Hintertreffen zu geraten. Die war in diesem Fall durchaus berechtigt; immerhin haben generative KI und LLMs Alltag, Abläufe und Arbeit in unter zwei Jahren stärker transformiert als kaum eine andere Technologie. Was dabei allerdings oft aus dem Blick geriet, war die Bedeutung von Daten für den produktiven Einsatz von KI. Während die Welt über die Fähigkeiten von LLMs staunte, sind es in der Anwendungspraxis immer Daten sowie deren Qualität und Verfügbarkeit, die über Nutzen und Erfolg von KI-Projekten entscheiden.

Moderne Datenarchitekturen als Voraussetzung

Klassische relationale Datenbanken erwiesen sich häufig als nur bedingt oder gar nicht geeignet für KI-Workloads. Denn KI-Anwendungen benötigen Zugriff auf strukturierte wie unstrukturierte Daten mit flexiblen Schemata und hoher Latenzempfindlichkeit. Text, Audio, Video, Sensordaten, Vektoren, Events – all diese Formate müssen schnell, zuverlässig und sicher verarbeitet werden können.

Flexible Datenarchitekturen, die zum Teil speziell entwickelt wurden, um KI-Systeme zu powern, versprechen Lösungen. Dazu zählen dokumentenorientierte Datenbanken, verteilte Speicherlösungen, Streaming-Technologien und Vektorindizes. Solche Infrastrukturen versetzen Unternehmen in die Lage, Informationen aus unterschiedlichsten Quellen zusammenzuführen und in Echtzeit für KI-Lösungen nutzbar zu machen.

Governance, Sicherheit und Vertrauen als zentrale Anforderungen

Gleichzeitig bieten sie auch die notwendige Governance, um sensible Daten zu schützen und regulatorische Anforderungen einzuhalten. Das ist gerade in regulierten Branchen – etwa im Gesundheitswesen oder im Finanzsektor – schon heute entscheidend und wird mit Blick auf autonom agierende KI-Agenten noch relevanter. Rechtswidrige oder nicht sichere Zugriffe auf personenbezogene oder vertrauliche Informationen können schnell zum Compliance-Risiko werden.

Geeignete Datenplattformen bieten deshalb nicht nur technische Leistungsfähigkeit, sondern auch granulare Berechtigungsmodelle, Protokollierung, Auditierung und Integrationsmöglichkeiten für Datenschutzrichtlinien. Sie schaffen damit zentrale Voraussetzungen für den verantwortungsvollen KI-Einsatz – und damit letztlich für Akzeptanz. Denn auch wenn KI-Agenten für viele Akteure noch ein Novum sind, ist klar, dass ihr wesentlich höheres Autonomie-Level für noch mehr Berührungsängste, kritische Beobachtung und Regulierung sorgen dürfte, als „herkömmliche“ KI-Anwendungen. Es ist daher wichtig, Vertrauen aufzubauen, sei es innerhalb des Unternehmens oder gegenüber Kunden, Partnern und Aufsichtsbehörden.

Fazit

Der nächste Schritt der KI-Evolution ist nicht allein modellgetrieben, sondern in hohem Maße von der Infrastruktur abhängig. Wer heute über produktiven KI-Einsatz spricht, muss auch über Datenverfügbarkeit, Standards wie MCP und moderne Architekturkonzepte sprechen. Unternehmen, die in diese Grundlagen investieren, schaffen die Voraussetzungen für den verantwortungsvollen und skalierbaren Einsatz autonomer KI-Agenten.

(ID:50437822)