Genauigkeit und Zuverlässigkeit von ChatGPT und Co. verbessern Halluzinierende KI – diese drei Maßnahmen helfen

Von Bernhard Lück 2 min Lesedauer

Anbieter zum Thema

Trotz riesiger Fortschritte stecken KI-Modelle wie ChatGPT noch in den Kinderschuhen. Ein Knackpunkt: überzeugend formulierte, aber falsche Ergebnisse, die KIs frei erfunden haben. Couchbase, Anbieter einer Cloud-Datenbank-Plattform, nennt drei Gegenmittel bei halluzinierenden KIs.

Couchbase erklärt, wie Genauigkeit und Zuverlässigkeit von ChatGPT und Co. gesteigert werden können.(Bild:  © – Sutthiphong – stock.adobe.com)
Couchbase erklärt, wie Genauigkeit und Zuverlässigkeit von ChatGPT und Co. gesteigert werden können.
(Bild: © – Sutthiphong – stock.adobe.com)

Large Language Models (LLMs) wie Google Bard oder ChatGPT brauchen Hilfe. Das Problem: Interpretieren die Chatbots Daten falsch oder verstehen die Frage nicht korrekt, beginnen sie zu „halluzinieren“. In der Praxis bedeutet das, sie verpacken Falschinformationen als gegebene Fakten in einem durchaus logischen Kontext. Dabei erfinden LLMs sogar Informationen sowie Quellen und stellen falsche Zusammenhänge auf den ersten Blick so wahrheitsgetreu dar, dass Anwender gar nicht merken, dass sie es mit den ausgedachten Antworten einer halluzinierenden KI zu haben. Einige dieser Abweichungen scheinen nachvollziehbar, interpretieren die Modelle doch lediglich Statistiken und Trainingsdaten – andere Ergebnisse scheinen völlig aus der Luft gegriffen zu sein. Auch wenn das Phänomen vermutlich nie gänzlich zu verhindern ist, nennt Couchbase drei Gegenmaßnahmen, mit denen Genauigkeit und Zuverlässigkeit von ChatGPT und Co. gesteigert werden können.

1. Feintuning

Die naheliegendste Herangehensweise an das Problem der falschen Informationsausgabe ist das erneute Trainieren des Modells anhand von spezifischen Daten, die für den jeweiligen Einsatzzweck des LLMs relevant sind. Auch wenn die Verzerrungen auf diese Weise abgeschwächt werden können, ist die Methode aufgrund des zeitlichen und finanziellen Aufwands aber nicht immer durchführbar. Das Finetuning ist darüber hinaus als Prozess zu betrachten, denn die zugrunde liegenden Daten können ohne kontinuierliches Training schnell wieder veralten.

2. Prompt Engineering

Ein direkterer Ansatz ist die Optimierung der textbasierten Eingaben über die Befehlszeile eines LLMs. Je mehr kontextbezogene Informationen und konkrete Anweisungen der Input besitzt, desto weniger Abweichungen und Fehlinterpretationen hat der Output. Neben präzisen Formulierungen und zusätzlichen Informationen setzt das Prompt Engineering auch auf mehrere, aufeinanderfolgende Anweisungen an die KI, die das Ergebnis immer weiter präzisieren und etwaigen Halluzinationen vorbeugen.

3. Retrieval Augmented Generation (RAG)

Als vielversprechendes Framework gegen KI-Halluzinationen konzentriert sich das RAG-Konzept darauf, LLMs kontinuierlich mit aktuellen Daten zu versorgen. So können beispielsweise Unternehmen ihre Modelle stetig mit kontextbezogenen und domainspezifischen Daten füttern, um einen exakten Output sicherzustellen und Verzerrungen zu minimieren.

„Die steigende Bedeutung von LLMs in unserem Alltag macht eine hohe Zuverlässigkeit und eine Minimierung der KI-Halluzinationen dringend notwendig“, betont Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase. „Vor allem RAG-Frameworks stellen ein wirkungsvolles Konzept zur Verfügung, das sein volles Potenzial in der Kombination mit einer hochverfügbaren Datenbank entfaltet, die große Mengen an unstrukturierten Daten speichern und mithilfe einer semantischen Suche abfragen kann.“

(ID:49793133)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung