Definition Was ist Retrieval Augmented Generation?

Von Dipl.-Ing. (FH) Stefan Luber 3 min Lesedauer

Anbieter zum Thema

Retrieval Augmented Generation (RAG) verbessert die Leistung großer Sprachmodelle und erweitert ihre Fähigkeiten. Die Technik kombiniert generative KI-Modelle mit abfragebasierten Modellen. RAG gibt großen Basissprachmodellen Zugriff auf Informationen, die für das Training nicht zur Verfügung standen. Nachgeschlagene Informationen steuern die Textgenerierung und fließen in die Antworten des Sprachmodells ein. Die generierten Antworten sind aktueller, relevanter und genauer.

(Bild:  © aga7ta - stock.adobe.com)
(Bild: © aga7ta - stock.adobe.com)

Retrieval Augmented Generation (RAG) ist eine Technik aus den Bereichen Künstliche Intelligenz und große Sprachmodelle (Large Language Models – LLM). Es handelt sich um ein Konzept, mit dem sich die Leistungen großer Sprachmodelle verbessern und ihre Fähigkeiten erweitern lassen.

RAG wurde erstmals im Jahr 2020 von Entwicklern des Facebook AI Research Teams und weiteren Experten der New York University und des University College London veröffentlicht. Der Titel der Veröffentlichung lautet „Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks“. RAG kombiniert zwei Ansätze des Natural Language Processing (NLP): generative und abfragebasierte Modelle. Dadurch können nachgeschlagene Informationen die Textgenerierung steuern und in die Antworten eines generativen Sprachmodells einfließen. Die Antworten des Modells werden aus dem ursprünglichen Prompt und den abgefragten Informationen generiert.

Generative Sprachmodelle erhalten mit RAG Zugriff auf Informationen, die für das Training der Modelle nicht zur Verfügung standen. Das können aktuelle Informationen, aber auch domänenspezifische Informationen wie internes Unternehmenswissen sein. Retrieval Augmented Generation erweitert das Potenzial generativer KI, ohne das zugrundeliegende Large Language Model überarbeiten oder neu trainieren zu müssen. Die Antworten der KI sind aktueller, relevanter und genauer. Die Neigung zu Halluzinationen ist reduziert.

RAG eignet sich für den Einsatz in Frage-/Antwortsystemen mit aktuellem Wissen und domänenspezifischen Chatbots, für den Kundensupport, für unternehmensinterne KI-Expertensysteme, für virtuelle Assistenten, für die Marktforschung und Analysesysteme aktueller Trends und für vieles mehr.

Gründe für die Entwicklung von RAG

Große generative KI-Sprachmodelle zeigen erstaunliche Fähigkeiten. Sie werden aufwendig mit riesigen Mengen von Texten trainiert und sind anschließend in der Lage, beispielsweise als Chatbots auf Fragen korrekt formulierte Antworten zu liefern. Allerdings bleibt der Output der Sprachmodelle auf die Informationen beschränkt, die für das Training verwendet wurden. Aufgrund des langwierigen und aufwendigen Trainings haben große Sprachmodelle einen Wissensstand, der viele Monate und teils Jahre zurückliegt. Um sie auf einen aktuellen Wissensstand zu heben, müssten sie mit riesigem Aufwand ständig neu trainiert werden. Auch um den Modellen domänenspezifische Informationen wie internes Unternehmenswissen zu vermitteln, wäre eine Retraining notwendig.

An dieser Stelle setzt das Konzept Retrieval Augmented Generation an. Es erweitert und verbessert die Leistung und Funktion der trainierten LLM, indem die Möglichkeit geschaffen wird, auf Wissen außerhalb des Modells zuzugreifen und abgerufene Informationen in den Kontext der Eingabeaufforderungen und Textgenerierung einfließen zu lassen. Das zugrundeliegende Large Language Model muss dafür nicht überarbeitet oder neu trainiert werden.

Funktionsweise von Retrieval Augmented Generation

Retrieval Augmented Generation kombiniert abfragebasierte Modelle mit generativen KI-Modellen. Abfragebasierte Modelle extrahieren Wissen aus bereitgestellten Quellen wie aktuellen Internetseiten oder domänenspezifischen Datenbanken. In der Regel arbeiten sie mit sogenannten Vektordatenbanken und überführen die Informationen in schnell zu durchsuchende Vektordarstellungen in einer Wissensdatenbank. Die Wissensdatenbank kann kontinuierlich mit neuen Daten befüllt werden.

Wird eine Anfrage an eine KI mit Retrieval Augmented Generation gestellt, werden zunächst die relevanten Informationen über eine Vektorsuche aus den vorhandenen Informationsquellen abgefragt und in ein kompatibles Format überführt. Die abgefragten Informationen werden in den Kontext der ursprünglichen Eingabeaufforderung aufgenommen und an das generative Modell gesendet. So können die relevanten Informationen in die Generierung der Antwort mit einfließen. Die Antwort des Gesamtsystems basiert auf den im Training erworbenen Fähigkeiten und Kenntnissen des generativen Basismodells und den aktuell erhaltenen Informationen des abfragebasierten Modells mit seinen Datenquellen. Sie ist aus allen Daten synthetisiert, kontextbezogen und zusammenhängend.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Vorteile von Retrieval Augmented Generation

Retrieval Augmented Generation bietet unter anderem diese Vorteile:

  • Zugriff auf aktuelle Informationen ohne Retraining oder Überarbeitung des Basismodells
  • Zugriff auf domänenspezifisches Wissen
  • beliebige Wissensquellen können in den generativen Prozess einbezogen werden
  • genauere, relevantere und aktuellere Antworten
  • Reduzierung der Neigung zu Halluzinationen
  • kontinuierliche Aktualisierung der Wissensbasis des Sprachmodells (kein neues Offline-Training notwendig)
  • bessere Überprüfbarkeit der Antworten und transparentere Abläufe
  • für Antworten genutzten Quellen lassen sich identifizieren und darstellen
  • Falschinformationen lassen sich in der Wissensbasis korrigieren oder löschen
  • kosteneffizientes und relativ einfach zu implementierendes Konzept

(ID:49804678)