So leistungsfähig generative KI-Systeme auch sein können: Um ihren vollen Mehrwert zu entfalten, müssen sie individuell trainiert werden. Denn die meisten Unternehmen benötigen eine speziell geschulte KI, die auf ihre Anwendungsbereiche abgestimmt ist. Die Kosten, große Sprachmodelle (LLMs) von Grund auf zu trainieren, um die Feinheiten eines Spezialgebiets zu erlernen, können dabei in die Millionen gehen.
Der Autor: Aaron Ricadela ist Senior AI Writer bei Oracle
(Bild: Oracle)
Bis vor kurzem wurden Leistungssteigerungen einer Künstlichen Intelligenz (KI) vor allem durch die Erhöhung der Parameterzahl erzielt. Ein KI-Modell besteht aus Milliarden dieser Parameter, die aus Eingabedaten gewonnen werden und maßgeblich bestimmen, wie die Lösung in der Praxis funktioniert. Doch die enormen Kosten, die durch das Training dieser Parameter entstehen, (OpenAIs GPT-4 verwendet Berichten zufolge 1,76 Billionen davon), sind für die meisten Unternehmen unerschwinglich.
Und dennoch nehmen versierte Unternehmen dabei immer häufiger eine Feinabstimmung generativer KI-Modelle vor, um eine höhere Genauigkeit zu erreichen, als ursprünglich möglich war. Ihre Lösung: Mithilfe von Techniken, die als „Last-Mile“-Training bekannt sind, füttern sie die Modelle mit bescheidenen Mengen ihrer eigenen Daten, damit die Systeme bei branchenspezifischen Aufgaben effektiv sein können – ohne dass die Rechenkosten das Budget sprengen. Dabei nutzen die Modelle das allgemeine Wissen, das sie erlernt haben und kombinieren dieses mit den vorgegebenen Unternehmensdaten. Sie lassen die Parameter unangetastet und überlassen LLM-Anbietern wie OpenAI, Cohere oder Open-Source-Angeboten das Training für die erste Meile, ehe sie mit der Feinabstimmung durch wenige eigene Daten beginnen. So erfolgt eine Anpassung der KI zu einem Bruchteil der Kosten und Rechenressourcen, die für ein herkömmliches Training von Grund auf erforderlich wären.
Der Kostensparer heißt „Last Mile“-Strategie
Die „Last-Mile“-Strategien, die Systeme dabei unterstützen, sich auf individuelle Aufgaben zu spezialisieren, können nur rund 25.000 US-Dollar kosten, da lediglich acht Cloud-basierte GPU-gestützte Server innerhalb weniger Tage – oder sogar Stunden – eingesetzt werden, um deutliche Genauigkeitsgewinne zu erzielen. Die Kosten können je nach Komplexität und Genauigkeitsanforderungen der Modelle stark variieren. Dennoch sind sie deutlich geringer als die etwa 2,5 Millionen US-Dollar, die es kosten würde, ein Modell mit 65 oder 70 Milliarden Parametern mit Hunderten von GPUs in der Public Cloud vollständig zu trainieren. Damit werden zunächst Modelle, die im allgemeinen Internet trainiert wurden, ausgewählt und so angepasst, dass sie die spezifischen Anforderungen eines Unternehmens erfüllen.
Die Möglichkeiten des Feintunings
Data Scientists setzen Techniken ein, die als „instruction tuning“ und „reinforcement learning from human feedback“ (RLHF) bezeichnet werden. Sie bieten neuronalen Netzen neue Beispiele dafür an, wie Menschen oder Maschinen Daten kennzeichnen. Sie verwenden die parameter-effiziente Feinabstimmung (PEFT), um auszuwählen welche Parameter geändert werden sollen. Bei der Anweisungsabstimmung erstellen die Teams einen Datensatz mit Anweisungen und deren korrekten Antworten und verwenden diese, um einem LLM beizubringen, ähnliche Anweisungen in der Inferenzzeit zu befolgen. Das Verstärkungslernen erweitert den Ansatz, indem ein „Belohnungsmodell“ mit menschlichen Präferenzen erstellt wird, die das Netzwerk weiter verfeinert. PEFT-Techniken können die Rechenkosten senken, indem sie eine kleine Anzahl neuer Parameter in ein großes Modell integrieren und nur die neuen Parameter trainieren, um die Problemlösungsfähigkeit zu verbessern.
Unabhängig von diesen Trainingsansätzen kann eine Methode namens Retrieval Augmented Generation (RAG) Unternehmensanwendungen aus Modellen erschaffen. Dies geschieht, indem die Informationen aus gespeicherten, für die KI-Analyse formatierten, Dokumenten gezogen werden, um eine speziellere, aktuelle Antwort zu formulieren, die über das hinausgeht, was sie im Training gelernt haben.
Wenn fast alle Parameter eines Modells „eingefroren“ werden und nur wenige neu trainiert werden, indem ihnen nur einige Dutzend oder Hunderte von zusätzlichen Beispielen gezeigt werden, können Unternehmen die Genauigkeit bei der Analyse erheblich steigern. Natürlich kann mehr Training erforderlich sein, um ein akzeptables Maß an Genauigkeit zu erreichen. Und für schwerwiegendere Probleme, wie die Feinabstimmung eines Modells für alle medizinischen Daten einer großen Krankenhauskette, sind möglicherweise Tausende von zusätzlichen Beispielen erforderlich.
Spezialisierte Datensätze
LLMs sind bereits in der Lage, mithilfe weniger Beispiele plausible Antworten auf neuartige Fragen zu geben. Das Phänomen des „few-shot learnings“ ermöglicht es den Benutzern, den Modellen während der Inferenz neue Beispiele zu zeigen. Diese Fähigkeit wird mit zunehmender Größe der Modelle immer besser. Außerdem können die Antworten von LLMs durch das so genannte Prompt-Engineering beeinflusst werden, bei dem Experten für maschinelles Lernen zur Laufzeit präzise Anweisungen zur Leistungssteigerung geben.
Das reicht oft schon aus, um das Modell zu verfeinern, wenn es sich um eine Aufgabe wie das Zusammenfassen von Artikeln oder die grobe Klassifizierung von Chat-Nachrichten als zufriedene oder unzufriedene Kunden handelt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Herausforderungen müssen beachtet werden
Doch auch wenn Unternehmen LLMs auf der Grundlage ihrer Daten verfeinern, gilt es immer noch den Datenschutz, den Schutz des Urheberrechts und mögliche Folgen für den Ruf des Unternehmens zu priorisieren. Denn die LLM-Modelle können sich die persönlichen Daten von Nutzern merken, die während des Trainings eingeben werden – und diese dann später wiederholen. Sie neigen auch dazu, verzerrte oder fehlerhafte Informationen zu liefern. Für Unternehmen bedeutet das potenziellen Schaden für den eignen Ruf, die Beziehung zu Kunden und Zulieferern sowie potenzielle Datenschutz- und Compliance-Verstöße. Eine Vielzahl von Open-Source-Sprachmodellen, die immer beliebter werden, können auch Lizenzierungsprobleme mit sich bringen.
Genau diese Probleme müssen in der Feinabstimmung beachtet und beseitigt werden, um schließlich eine nachhaltige Sicherheit für das gesamte Modell zu gewährleisten.