Kommentar von Björn Lorenzen, Yext Wie große Sprachmodelle Unternehmenswebsites auf das nächste Level heben

Von Björn Lorenzen Lesedauer: 6 min |

Anbieter zum Thema

Kaum eine Technologie wurde in den vergangenen Jahren so intensiv diskutiert wie die generative KI. Der Launch von OpenAIs ChatGPT hat sie massentauglich gemacht und damit ein Momentum geschaffen. Die Begeisterung war sogar so groß, dass die Plattform innerhalb weniger Tage die Millionengrenze knackte. Inzwischen ist die Technologie endgültig in der Gesellschaft angekommen und revolutioniert die digitale Welt und die Art und Weise wie Menschen arbeiten und sich informieren.

Der Autor: Björn Lorenzen ist Regional Vice President EMEA Central bei Yext
Der Autor: Björn Lorenzen ist Regional Vice President EMEA Central bei Yext
(Bild: Yext)

So ist es nicht verwunderlich, dass auch Unternehmen diese Technologie für sich und ihr Business entdeckt haben. Viele setzen die Technologie bereits für wiederkehrende Aufgaben im Arbeitsalltag ein: Die Anwendungsbereiche reichen dabei von der Ideenfindung über das Zusammenfassen und Entwickeln von Texten bis hin zur Programmierung ganzer Websites. So können Prozesse effizient skaliert und Mitarbeiter sinnvoll entlastet werden.

Ein Anwendungsgebiet, das viele Unternehmen derzeit noch nicht im Blick haben, ist die Unternehmenswebsite. Mithilfe von GPT-3, BERT oder anderen großen Sprachmodellen kann diese optimiert werden – sowohl im Entwicklungsprozess als auch letztlich in der User Experience. Websitetexte können so in Sekundenschnelle erstellt werden und machen das manuelle Schreiben von Produkt- oder Personenbeschreibungen überflüssig. Aber auch die Website-Suche oder der Chatbot können mit dieser Technologie sinnvoll weiterentwickelt, die Informationssuche auf der Website erleichtert und die Kundenkommunikation insgesamt verbessert werden.

Trotz der vielen Vorteile ist beim Einsatz Vorsicht geboten. Viele KI-basierte Sprachmodelle „halluzinieren“ häufig noch – teilweise bis zu 20 Prozent – und liefern falsche Informationen. Ein Risiko, das es zu vermeiden gilt, will man das Vertrauen der Nutzer nicht leichtfertig verspielen. Die Gründe, warum KI halluzinieren kann, sind dabei vielfältig. Beispielsweise verwendet Language Modeling (LM) verschiedene statistische und probabilistische Methoden, um die Wahrscheinlichkeit zu berechnen, mit der bestimmte Wörter in einem Satz zusammen vorkommen. Mit anderen Worten: LLMs verstehen keine natürliche Sprache, sondern erstellen eine statistische Darstellung, die dem Sprachmuster aus den Trainingsdaten ähnelt. Die Technologie ist also nicht in der Lage abstrakte Konzepte zu verstehen oder aus unvollständigen Informationen Schlüsse zu ziehen. Ein weiterer Fallstrick: Einige Sprachmodelle, wie ChatGPT, werden auf alten Datensätzen trainiert, was dazu führt, dass sie keinen Zugriff auf die neuesten Informationen haben und Fragen zu diesen schlicht nicht beantworten können.

Keine einfache Integration

Die Antwort auf die Frage, ob ChatGPT einfach in die Website integriert werden kann, ist also eindeutig: Nein! Damit der Chat auf der eigenen Website verifizierte Antworten ausspielt, kann ein Knowledge Graph, wie man ihn von Google kennt oder wie wir ihn bei Yext einsetzen, hilfreich sein. Diese strukturierte Datenquelle bildet die Grundlage für eine funktionierende Chat-Funktion. In ihr sind alle unternehmensrelevanten Informationen hinterlegt und so miteinander verknüpft, dass sie Beziehungen zu einzelnen Entitäten erkennen kann.

Bei Yext betrachten wir Large Language Models (LLMs) als eine grundlegende Struktur, um das Wissensmanagements im Unternehmen zu verbessern. Diese Sprachmodelle benötigen große Datenmengen. Dabei handelt es sich um alle verfügbaren Unternehmensinformationen, die für das Training der Modelle verwendet werden. Die Daten werden in die Anwendungsschichte eingespeist, die aus verschiedenen Sprachmodellen wie GPT3.5, LaMDA, PaLM, BLOOM, Gopher, Jurassic-1 und BERT besteht. Je nach Anwendungsfall und Kommunikationskanal generiert die Anwendungsschicht entsprechende Ergebnisse wie Suchergebnisse, Antworten auf Kundenanfragen im Chat oder Produktbeschreibungen.

Um das System kontinuierlich zu verbessern, sind Feedbackschleifen unerlässlich. Das erhaltene Feedback wird wieder in die KI-Systeme eingespeist und die Ergebnisse so sukzessive optimiert. Bei Yext haben wir einen dreistufigen Ansatz entwickelt, der es unseren Kunden ermöglicht, ihren eigenen intelligenten Chat aufzubauen.

Einklang aus drei Ebenen ebnet Weg zum Erfolg

1. Datenebene – organisierte Basis als Schlüssel für effektives Wissensmanagement: Für ein effektives Wissensmanagement ist es entscheidend, alle im Unternehmen vorhandenen Daten – ob strukturiert, semistrukturiert oder unstrukturiert – zu sammeln, zu organisieren und zu speichern. Dazu gehören interne Dokumente, Handbücher, häufig gestellte Fragen (FAQs), Kundensupport-Tickets und technische Spezifikationen. Ein zentraler Bestandteil dieses Prozesses ist der Aufbau eines Headless Content Management System, das als zentrale Datenquelle fungiert. Die Stärke eines Headless CMS liegt darin, dass es als Datenspeicher dient, das von Künstlicher Intelligenz gelesen werden kann. Alle Inhalte werden auf Basis von Beziehungen zwischen realen Entitäten organisiert. Dadurch können Informationen für die Sprachsuche, Chatbots und andere anspruchsvolle KI-Anwendungen optimiert werden. Mithilfe Künstlicher Intelligenz können so Zusammenhänge, Schlussfolgerungen und Erkenntnisse extrahiert werden, die auf herkömmliche Weise nicht zugänglich wären. Eine organisierte Datenbasis ermöglicht schließlich die Beantwortung komplexer Fragen etwa über die Suchfunktion auf der eigenen Website wie „Türkisch sprechender Bankberater mit Schwerpunkt Baufinanzierung am Standort Köln“.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

2. Modellebene – maßgeschneiderte Inhalte für Kunden und Belegschaft: Steht die Datenbasis, können im nächsten Schritt die integrierten Sprachmodelle mit den Inhalten trainiert werden. GPT3.5 ist hier nur eines von vielen und wird beispielsweise durch LaMDA, BLOOM, PaLM, Gopher oder BERT ergänzt. Regelmäßig kommen neue Modelle hinzu, die den Funktionsumfang erweitern. Dabei gilt: Es gibt nicht ein Modell für alle Anwendungsfälle, sondern jedes ist für unterschiedliche Aufgaben zuständig. Sie sammeln unterschiedliche Daten und sorgen dafür, dass das Modell über verschiedene Anwendungen korrekte und individuelle Antworten ausspielt. So ist ChatGPT für das automatische Erstellen von Produktbeschreibungen zuständig, während BLOOM auf die Beantwortung von Online-Bewertungen trainiert ist. Anfragen von Mitarbeitenden oder Kunden können auf diese Weise in natürlicher Sprache präzise beantwortet werden.

3. Anwendungsebene – Inhalte über alle Kanäle verbreiten: Die dritte Ebene sind Anwendungen. Dabei handelt es sich um die Endfunktionen wie Suche, Textgenerator, Zusammenfassungen oder das Umschreiben von Texten. Diese Multi-Channel-Experience-Schicht ermöglicht es, KI-generierte Inhalte sowohl für interne als auch externe Kanäle sichtbar zu machen. So können User über verschiedene Kommunikationskanäle wie Websites, Chatbots, Sprachassistenten oder E-Mails auf das Unternehmenswissen zugreifen und konsistente Informationen erhalten.

Damit große Sprachmodelle reibungslos im Wissensmanagement eingesetzt werden können, müssen vorab entscheidende Kriterien erfüllt sein:

  • Datenqualität: Sauber strukturierte Daten sind die Grundvoraussetzung für nahtlose KI-Erlebnisse. Werden diese nicht kontinuierlich gepflegt und aktuell gehalten, wird das Ausspielen relevanter Informationen wesentlich gestört.
  • Skalierbarkeit: Der Einsatz leistungsfähiger Sprachmodelle erfordert erhebliche Rechenleistung und Speicherkapazität. Unternehmen müssen sicherstellen, dass sie über die entsprechende Infrastruktur verfügen, um diese großen Sprachmodelle effizient zu trainieren und bereitzustellen.
  • Datenschutz: Um interne und sensible Daten zu schützen und die Integrität eines Unternehmens zu wahren, müssen im Vorfeld Sicherheitsvorkehrungen getroffen werden.
  • Kontinuität: Beständigkeit ist der Schlüssel zu langfristiger Qualität. Daher ist es wichtig, Sprachmodelle regelmäßig zu trainieren, Daten kontinuierlich zu aktualisieren und Feedbackschleifen zu berücksichtigen. Dies ist notwendig, um das Niveau der ausgespielten Inhalte sukzessive zu steigern.

Fazit

Große Sprachmodelle eröffnen bereits heute neue Möglichkeiten für das digitale Marketing und andere Geschäftsbereiche. Schon jetzt ist klar: Sie werden das digitale Erlebnis nachhaltig verändern. Ihre Integration in Websites kann die Nutzung und die Kommunikation erheblich erleichtern. Und auch innerhalb der Organisation kann der Einsatz von KI-basierten Modellen die Effizienz und Produktivität der Mitarbeiter optimieren und neue Ressourcen freisetzen. Die Technologie ist daher ein wertvolles Mittel, um die Kunden- und Mitarbeiterzufriedenheit zu steigern.

Für eine reibungslose Umsetzung ist es die Aufgabe der Unternehmen, eine saubere Datenbasis zu schaffen, die von den Sprachmodellen gelesen werden kann. Gleichzeitig müssen diese kontinuierlich trainiert werden, um Kunden und Mitarbeitende mit korrekten Informationen zu versorgen und Halluzinationen über das eigene Unternehmen zu vermeiden.

Artikelfiles und Artikellinks

Link: Yext im Web

(ID:49689283)