Kurze Zeit nach dem Siegeszug der großen Sprachmodelle zeichnen sich zunehmend gewisse Grenzen dieser bahnbrechenden Technologie ab. Besonders im komplexen Geschäftsumfeld mangelt es oft an der notwendigen Spezialisierung. Das führt zu erheblichen Ineffizienzen bei der Anpassung und Wartung. Entwickler sind deshalb nun dazu übergegangen, die Modelle vermehrt modular zu integrieren – ein Paradigmenwechsel mit weit reichenden Folgen.
Der Autor: Christopher Helm ist CEO der Helm & Nagel GmbH
(Bild: Nielsen Photography)
Augenscheinlich sind Large Language Models (LLMs) noch immer das Maß aller Dinge in der Künstlichen Intelligenz. Die Gründe dafür liegen auf der Hand: Allein durch die statistische Vorhersage von Tokens können die neuronalen Netze auf Basis der Transformer-Architektur eine Vielzahl an Aufgaben der natürlichen Sprachverarbeitung lösen – und das deutlich besser als vorherige Modelle. Kein Wunder also, dass der Ansatz einen regelrechten Hype ausgelöst hat, der bis heute anhält. ChatGPT ist nur ein Gesicht davon. Im Business-Kontext, besonders für Enterprises, ist der Fokus ein anderer, aber nicht weniger viel versprechend. Für die Verarbeitung von Dokumenten, datenbasierte Entscheidungen sowie die interaktive Aggregation von Informationen, ist das Potenzial immens – um nur einige Beispiele zu nennen.
Anfangs lag es nahe, für jeden dieser Zwecke einzelne Modelle eigens zu trainieren, zu modifizieren und zu integrieren. Dieser Ansatz birgt einige Schwierigkeiten. Zur Bearbeitung verschiedener fachspezifischer Aufgaben summiert sich schnell ein enormer Ressourcenverbrauch an, der sogar in notwendigen Strukturveränderungen des Unternehmens gipfeln kann. Hierin sieht eine aktuelle MIT-Studie einen entscheidenden Grund, warum flächendeckende Kostenersparnisse durch KI noch nicht Realität geworden sind. Zudem spielt die mangelnde Wiederverwertbarkeit eine wichtige Rolle: Ändert sich die Aufgabenstellung, beginnt der Anpassungsprozess oft von vorne. Nicht zuletzt erfordert auch die Nutzung von Echtzeitdaten erweiterte Funktionalitäten, die über die Kompetenzen herkömmlicher LLMs hinausgehen. Die KI-Entwicklung findet hierauf eine deutliche Antwort.
„State of the Art KI-Ergebnisse werden zunehmend durch zusammengesetzte Systeme mit mehreren Komponenten erzielt, nicht nur durch monolithische Modelle.“ Diese fast beiläufig wirkende Aussage von Forschern aus Berkeley und Stanford ist eigentlich eine profunde Feststellung mit weit reichender Bedeutung. Gemeint sind komplex aufgebaute Anwendungen, die KI-Modelle, insbesondere LLMs, mit diversen Modulen oftmals sequentiell verketten. So kann der jeweilige Output als Zwischenstand sowie als Input für die darauffolgende Komponente dienen. Für die Umsetzung kommen Techniken wie Retrieval-Augmented Generation (RAG) oder Multi-Step Chains zum Einsatz. Aufgefallen ist der Ansatz beispielsweise im generativen Coding mit Systemen wie AlphaCode 2 oder im medizinischen Bereich mit Medprompt. Die Performance bei der Datenverarbeitung und -generierung kann die monolithischer Modelle deutlich hinter sich lassen.
Bereits auf den ersten Blick werden weitere Vorzüge deutlich, die der Ansatz branchenübergreifend für die Effizienzsteigerung in Unternehmen bedeuten kann. Vortrainierte LLMs sind typischerweise in ihrem Wissen auf die verwendete Datenbasis beschränkt. Mithilfe ergänzender Komponenten mit API-Anbindung wird jedoch der Zugriff auf die immensen Echtzeit-Informationen großer Unternehmen möglich. Darüber hinaus steigen Kontrollierbarkeit und Sicherheit: Während die Einflussnahme auf monolithische LLMs kaum über den Trainingsprozess hinausgeht, können ergänzende Module gewisse Verhaltensweisen des Modells herausfiltern und für vordefinierte Rahmenbedingungen sorgen. So lässt sich außerdem festlegen, welche Einzelschritte auf welche Anwendungsteile entfallen.
Maschinelle Arbeitsteilung
Die sequentielle Verkettung von Komponenten erlaubt eine Segmentierung komplexer Fachaufgaben in einzelne, leichter zu bewältigende Einheiten. Es entfällt der umfassende Anpassungsvorgang sowie ständige Kontrollen, die notwendig wären, wenn monolithische Modelle mit der Gesamtaufgabe betraut würden – sofern diese überhaupt zu bewältigen wäre. Am Ende ist internalisierte Spezialisierung einfacher in der Handhabung und zugleich umfassender anwendbar, als wenn mit einem Heer an Generalisten vorgegangen wird. Eine derartige Arbeitsteilung hat weitere Effekte: Es steigt etwa die Erklärbarkeit, wenn abweichende Ergebnisse produziert werden. Anstelle der undurchsichtigen und viel zitierten „Black Box“ lässt sich mit modularen KI-Systemen nachvollziehen, in welchem Arbeitsschritt der Fehler aufgetreten ist. Als Indikator dient der jeweilige Output einzelner Komponenten. So ist eine zielgerichtete Wartung oder Anpassung des Prozesses möglich.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Nun können sich die konkreten Fachaufgaben allerdings laufend verändern. Besonders in großen Unternehmen tauchen zudem oft weitere Problemstellungen auf, die zwar andere Endergebnisse erfordern, aber einzelne, übereinstimmende Arbeitsschritte beinhalten. Hier kommt es auf die Wiederverwertbarkeit bereits integrierter KI-Lösungen an. Indem die Prozesse segmentiert werden, lassen sich die Einzelschritte in anderen Aufgaben besser wiedererkennen. Dort können dann die gleichen dafür vorgesehenen Module erneut zum Einsatz kommen. So entsteht ein größerer fachlicher Anwendungsraum, obwohl zugleich eine Spezialisierung stattfindet. Die derart umfassende Erfüllung teilweise konkurrierend erscheinender Anforderungen könnte künftig zu einem wichtigen Erfolgskriterium werden.
Fokus auf Datenintegration und Optimierung
Um die Potenziale modularer KI voll auszuschöpfen, gibt es für die Forschung und Entwicklung weiterhin einige Herausforderungen zu bearbeiten. Das betrifft in erster Linie die Datenintegration und Kommunikation zwischen den Modulen. Um dabei Transparenz und Wartbarkeit hochzuhalten, ist eine genaue Überwachung der zwischenzeitlichen Outputs notwendig. Hierfür kommen bislang zielgerichtete Analyse- und Visualisierungstools zum Einsatz. Aktuelle Bestrebungen konzentrieren sich darauf, die Ergebnisse automatisiert innerhalb der Systeme nutzbar zu machen, um die Qualität zu verbessern. Autopoiesis lautet ein wichtiges Schlagwort hinter dieser Form der Selbstoptimierung. Zu diesem Zweck werden außerdem Frameworks wie DSPy angewandt, durch die sich Datenpipelines, Prompts und Gewichtungen der integrierten Sprachmodelle nahezu eigenständig optimieren sollen.
Blickt man aus holistischer Perspektive auf diese Entwicklungen, werden Standardisierung, Wiederverwertbarkeit und damit Entlastung bei der Integration und Wartung als besonders relevante Trends ersichtlich. Hierin bestehen zugleich die Hauptbedürfnisse großer Organisationen: Laut einer Untersuchung des Wagniskapitalgebers Menlo Ventures nutzen 60 Prozent der Enterprises multiple KI-Modelle, aber nur zehn Prozent trainieren diese eigenhändig. Stattdessen fließen 96 Prozent der Ausgaben in Inferenz, also den unmittelbaren Einsatz der Technologie. Das ist prinzipiell auch ohne die modulare Form der Orchestrierung möglich – allerdings entbehrt eine Infrastruktur aus unzähligen Einzellösungen der Einbindung von Wissen aus vorherigen Prozessschritten. Nicht zuletzt kommt es auch auf den menschlichen Zugang der Systeme an, sodass Effizienzsteigerung, originelles Denken und strategische Ziele optimal ineinandergreifen.