CGI hilft beim Ausbremsen „übermotivierter“ GenAI Vier Tipps gegen KI-Halluzinationen

Von Martin Hensel 3 min Lesedauer

Anbieter zum Thema

Wie der IT-Dienstleister und KI-Experte CGI weiß, kann Generative KI (GenAI) manchmal etwas „übermotiviert“ zu Werke gehen. Frei erfundene Antworten, sogenannte KI-Halluzinationen, lassen sich aber mit einigen Tricks reduzieren.

Wenn die KI halluziniert, liegt es meist an der Datenbasis. CGI weiß, wie sich Abhilfe schaffen lässt.(Bild:  Lukas /  Pixabay)
Wenn die KI halluziniert, liegt es meist an der Datenbasis. CGI weiß, wie sich Abhilfe schaffen lässt.
(Bild: Lukas / Pixabay)

GenAI liefert immer Antworten, die auch nahezu immer schlüssig klingen. In vielen Fällen sind sie es aber nicht, sondern entpuppen sich als frei erfundene Formulierungen. Derartig „übermotivierte“ KI-Antworten kennt man als KI-Halluzinationen. Ursache für dieses Verhalten sind oft die Daten, auf deren Basis die LLMs („Large Language Models“) für GenAI-Anwendung trainiert wurden. Sind sie falsch, veraltet, unverständlich oder unvollständig, sind auch die Ergebnisse entsprechend fehlerhaft („Garbage In, Garbage Out“, GIGO).

Eigentlich wäre in solchen Fällen eine Ausgabe wie „Tut mir leid, darauf kann ich keine vernünftige Antwort geben“ angebracht. Dies ist jedoch nicht vorgesehen: Stattdessen halluziniert die GenAI mangels brauchbarer Informationen etwas zusammen. Eine verbesserte Datenqualität steht bei der Optimierung von LLMs ganz oben auf der Liste, ist jedoch meist kosten- und zeitaufwendig. CGI hat deshalb die folgenden vier ergänzenden Ansätze zur Optimierung von Sprachmodellen zusammengefasst.

RAG-Pipelines aufbauen

RAG steht für „Retrieval Augmented Generation“ und ist ein kostengünstiger Ansatz für die Nutzung zusätzlicher Daten in einem LLM. Das Sprachmodell wird dabei gezielt mit weiteren spezifischen Informationen gefüttert, ohne es damit zu trainieren und zu verändern. Es erhält stattdessen einfach Zugriff auf weitere Datenquellen, wie etwa themenspezifische Datenbanken, Data Warehouses oder Dokumenten-Pools, aus denen es sich bedienen kann. Das erweitert die Wissensbasis und steigert die Qualität der Antworten. So wird es möglich, ein LLM gezielt für bestimmte Anwendungen, Segmente oder Branchen ohne zusätzlichen Trainingsaufwand zu optimieren.

„Human in the Loop“ (HITL) nutzen

Mit „Human in the Loop“ (HITL) wird die Interaktion zwischen Menschen und Künstlicher Intelligenz bezeichnet, die zu einer Verbesserung der Sprachmodelle führen soll. Dieser Prozess, der auch als „Reinforcement Learning“ bekannt ist, beschreibt eine spezifische Form der Arbeitsteilung zwischen Mensch und Maschine. In kontinuierlichen Feedback-Schleifen wird die KI ständig angeleitet und trainiert, eindeutige Entscheidungen zu fällen. Praktische Studien haben exemplarisch gezeigt, dass diese Form von Team-Work deutlich erfolgreicher sein kann als reine Mensch-Mensch- oder Maschine-Maschine-Konstellationen.

Knowledge-Graphen einsetzen

Mit der Graphentechnologie ist es möglich, heterogene Daten aus unterschiedlichen Quellen zusammenzuführen und ganzheitlich zu visualisieren. Ein Knowledge Graph verknüpft verschiedene Daten wie Personen, Orte und Konzepte sowie ihre Beziehungen zueinander und organisiert Wissen strukturiert und semantisch. Im Ergebnis entsteht ein umfassendes, kontextbezogenes Modell eines Wissensbereichs, das zudem leicht abfragbar ist. In einem Produktionsprozess beispielsweise können damit Montagelinien oder Lieferketten modelliert werden.

Das richtige Sprachmodell wählen

Großes Optimierungspotenzial liegt auch in der Entscheidung für den Einsatz eines bestimmten Sprachmodells. Jedes LLM hat seine eigenen Stärken und Schwächen – und seinen Preis. GPT 3.5 etwa ist weitaus günstiger als GPT 4. Ein weiterer wichtiger Punkt ist die Verfügbarkeit. Viele LLMs werden lediglich auf bestimmten Cloud-Plattformen bereitgestellt – OpenAI beispielsweise nur auf Azure. Für eine Reihe von Sprachmodellen werden zudem branchenspezifisch optimierte Varianten verfügbar sein (etwa Telco LLM). Letztlich gilt es, die Modelle mit den Anforderungen des jeweiligen Einsatzszenarios abzugleichen. Dabei kann sich dann herausstellen, dass ein günstiger Allrounder für den geplanten Zweck völlig ausreicht.

„Mit den richtigen Werkzeugen können GenAI-Applikationen schnell, kostengünstig und ohne zusätzlichen Trainingsaufwand für die Sprachmodelle optimiert werden“, erklärt Niklas Bläsing, Practice Head Data, Automation & AI von CGI in Deutschland. So lasse sich auch der Anteil an Fake-Informationen sukzessive immer weiter reduzieren. „Es muss uns dabei aber auch klar sein, dass es selbst bei bestem Finetuning keine Garantie für völlige Fehlerfreiheit geben kann“, warnt der Experte.

(ID:50035067)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung