Die digitale Transformation hat die Kommunikation in und mit Unternehmen grundlegend verändert. Chatbots, angetrieben durch Large Language Models (LLM), wie z. B. OpenAIs GPT-4, und angereichert durch Retrieval-Augmented Generation (RAG), sind nicht mehr nur Zusatztools, sondern ein wesentlicher Bestandteil. Diese intelligenten Systeme bieten personalisierte und dynamische Interaktionen, die weit über das Spektrum einfacher, skriptbasierter Antworten hinausgehen und die Effizienz steigern können. Sie verstehen und reagieren auf eine Vielfalt von Anfragen mit hoher Präzision, machen Vorschläge und leiten Nutzer durch komplexe Prozesse – und das alles in nahezu menschlichem Dialog.
Der Autor: René Kessler ist Experte für Künstliche Intelligenz und Data Science bei der abat AG am Standort Bremen
(Bild: abat AG)
Neben ihrer Rolle im Kundenservice und Support haben sich diese KI-gesteuerten Systeme zunehmend als Helfer bei der alltäglichen Arbeit etabliert. Sie vereinfachen den Zugriff auf Informationen und minimieren manuelle Tätigkeiten wie das Recherchieren und Sammeln von Informationen. Durch die Automatisierung routinemäßiger Aufgaben ermöglichen sie es den Mitarbeitern, sich auf komplexere und wertschöpfendere Aktivitäten zu konzentrieren.
Was sind LLMs und RAG?
Large Language Models sind fortschrittliche Sprachmodelle, trainiert auf Basis riesiger Mengen diverser Textdaten, von Büchern und Artikeln bis hin zu Webseiteninhalten. Diese Modelle nutzen tiefe neuronale Netze, um die Komplexität menschlicher Sprache zu erfassen. Ihr Training auf breitgefächerten Textquellen verleiht LLMs ein umfassendes Verständnis von Sprachstrukturen und -kontexten, wodurch sie Texte erzeugen können, die von menschlichen Schöpfungen kaum zu unterscheiden sind. LLMs zeichnen sich durch ihre Fähigkeit aus, kontextuelle Nuancen zu erkennen und in ihren Antworten zu berücksichtigen, was ihre Relevanz und Genauigkeit weiter steigert.
Ein wesentlicher Aspekt bei der Entwicklung von LLMs ist ihr Training auf generelle, breit angelegte Informationen. Das ermöglicht es den Modellen, ein sehr umfangreiches Wissen abzubilden. Jedoch zeigen sich bei sehr spezifischen oder unternehmensinternen Wissensbereichen teilweise Lücken. Wird ein zu spezieller Themenbereich angesprochen oder werden tagesaktuelle Informationen für eine korrekte Antwort benötigt, weisen LLMs teilweise Limitationen auf. Begründet werden kann das meist dadurch, dass die für die Antwort benötigten Informationen nicht Teil des Trainingsmaterials waren.
Die kontinuierliche Weiterentwicklung dieser Modelle durch Training mit neuen Daten und die Integration fortschrittlicher Techniken des maschinellen Lernens zielen darauf ab, diese Schwächen zu überwinden. Gerade das Training eigener LLMs oder deren Retraining kann allerdings Unternehmen vor große Herausforderungen stellen. So ist beispielsweise ein enormer Aufwand zu betreiben, um die relevanten Daten entsprechend vorzubereiten. Gleichzeitig sind große Hardwareressourcen (egal ob Cloud oder lokal) notwendig, um überhaupt in der Lage zu sein, ein eigenes Training realisieren zu können. Eine Alternative dazu kann Retrieval-Augmented Generation (RAG) darstellen.
RAG kombiniert die Fähigkeit von LLMs, Text zu generieren, mit der Fähigkeit, spezifische Informationen aus einer Datenbank abzurufen. In der Praxis bedeutet das, dass ein digitaler Assistent nicht nur allgemeine Antworten gibt, sondern auch spezifische, kontextbezogene Informationen liefern kann, die direkt aus den internen Datenquellen (z. B. Datenbanken oder Dokumente) eines Unternehmens stammen. Diese Kombination ermöglicht es Assistenten, Antworten von außerordentlicher Relevanz und Präzision zu generieren, die individuell auf die Informationslandschaften und Anforderungen des Unternehmens zugeschnitten sind – ganz ohne Training und damit schnell und ressourcenschonend.
Technische Funktionsweise von RAG-Anwendungen
Die Implementierung von RAG-basierten, unternehmensinternen Assistenten erfordert eine sorgfältige Planung. Einsetzende Unternehmen müssen zunächst relevante interne Datenquellen identifizieren und sicherstellen, dass diese genutzt werden können. Datenschutz, Datensicherheit, aber auch Rechte- und Rollenkonzepte müssen ebenso betrachtet werden, damit bei der Anfrage durch Nutzer nur die Informationen verarbeitet werden, die verarbeitet werden dürfen. Wird die technische Umsetzung betrachtet, bestehen RAG-Anwendungen im Kern immer aus drei Komponenten:
1. Large Language Models: LLMs sind das Herzstück von RAG. Sie verstehen und generieren natürliche Sprache. Ihre Fähigkeit, Kontext zu erfassen und kohärente Texte zu erzeugen, wird in RAG-Systemen genutzt, um die Basis für die Antwortgenerierung zu liefern. Bei der konkreten Umsetzung können hier beispielsweise performante, frei verfügbare Modelle, wie z. B. Llama2, eingesetzt werden. Der Betrieb dieser Modelle kann dabei lokal auf eigener Hardware oder auch in der Cloud realisiert werden.
2. Embeddings: Um die relevanten Informationen aus externen Quellen zu extrahieren, werden die Textdaten der Nutzeranfrage in sogenannte Embeddings umgewandelt. Embeddings sind hochdimensionale Vektorrepräsentationen von Texten, die es ermöglichen, die semantische Ähnlichkeit zwischen Anfragen und den in einer Wissensdatenbank gespeicherten Informationen zu messen. Diese Vektoren dienen als Brücke zwischen der natürlichen Sprachanfrage und den gespeicherten Daten.
3. Vektordatenbanken: Das zuvor bereitgestellte interne Wissen (z. B. aus Datenbanken oder eigenen Dokumenten) wird vektorisiert in einer Vektordatenbank gespeichert. Der Abgleich der vektorisierten Informationsquellen und der vektorisierten Anfrage durch den Nutzer, ermöglicht schnelle Suchoperationen in hochdimensionalen Räumen, um die für eine Anfrage relevantesten Informationen zu identifizieren. Diese Datenbanken sind optimiert für Effizienz und Geschwindigkeit bei der Suche nach den richtigen Informationen zur jeweiligen Anfrage (Ähnlichkeitsanalyse).
Retrieval-Augmented Generation (RAG) kombiniert die Fähigkeit von LLMs, Text zu generieren, mit der Fähigkeit, spezifische Informationen aus einer Datenbank abzurufen.
(Bild: abat AG)
Im RAG-Prozess wird zunächst eine Anfrage in ein Embedding umgewandelt und dann in der Vektordatenbank nach den ähnlichsten Informationen gesucht. Die gefundenen Informationen werden anschließend zusammen mit der ursprünglichen Anfrage an das LLM übergeben, das diese Informationen nutzt, um eine präzise und kontextuell angereicherte Antwort zu generieren. Durch diesen Ansatz kann RAG tiefere Einsichten liefern und spezifische Informationen bereitstellen, die über das allgemeine Wissen der LLMs hinausgehen.
Die Kombination dieser Komponenten ermöglicht es RAG-Systemen, die Grenzen traditioneller Sprachmodelle zu überwinden, indem sie direkten Zugriff auf eine breite Palette von Wissensdatenbanken bieten. Dies führt zu einer deutlich verbesserten Antwortqualität in einer Vielzahl von Anwendungsfällen, von der Beantwortung spezifischer Fragen bis hin zur Bereitstellung detaillierter Informationen und Analysen.
Praktische Anwendungen
Die Kombination aus Large Language Models (LLMs) und Retrieval-Augmented Generation (RAG) bietet vielfältige Möglichkeiten, Geschäftsprozesse zu optimieren. Durch die Integration dieser Technologien in Chatbots oder digitale Assistenten können Unternehmen beispielsweise ihren Kundenservice automatisieren, Support-Tickets effizienter bearbeiten oder Mitarbeitern einen schnellen Zugriff auf wichtige Informationen gewährleisten. LLMs mit RAG nutzen den internen Wissensschatz eines Unternehmens, um tiefgehende, präzise und personalisierte Antworten zu generieren – ohne die Notwendigkeit des Trainings eines eigenen Large Language Models. Das spart Zeit und Geld, da weniger Ressourcen notwendig sind.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Vorteile dieser Technologien umfassen eine verbesserte Effizienz und schnellere sowie genauere Informationsbereitstellung. Zugleich ermöglichen sie eine signifikante Arbeitsentlastung. Die Implementierung setzt zwar eine sorgfältige Planung, die Integration relevanter Datenquellen und einen hohen Datenschutzstandard voraus, birgt jedoch das Potenzial, die interne und externe Kommunikation von Unternehmen grundlegend zu transformieren und eine neue Ära der intelligenten Automatisierung einzuleiten.