Industrielle KI Warum Small Language Models in der Fertigung an Boden gewinnen

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Kompakte KI-Modelle rücken in Produktionsumgebungen zunehmend in den Fokus. Nach Einschätzung von NTT Data bieten Small Language Models (SLMs) spürbare Vorteile bei Echtzeitfähigkeit, Edge-Betrieb und Betriebskosten – und ergänzen Large Language Models (LLMs) zunehmend in hybriden Architekturen.

Oliver Köth von NTT Data betont, dass in der Fertigung nicht die größten Modelle, sondern präzise trainierte kompakte Modelle den größten Nutzwert liefern.(Bild:  NTT Data)
Oliver Köth von NTT Data betont, dass in der Fertigung nicht die größten Modelle, sondern präzise trainierte kompakte Modelle den größten Nutzwert liefern.
(Bild: NTT Data)

Small Language Models (SLMs) entwickeln sich in der Industrie zunehmend zur bevorzugten Alternative zu großen KI-Modellen. Während LLMs aufgrund ihrer Größe beeindruckende Fähigkeiten bieten, passen sie nur bedingt zu Echtzeitprozessen, abgeschotteten OT-Umgebungen und streng regulierten Produktionsbereichen. Laut NTT Data zeigt sich in der Praxis, dass gezielt trainierte kompakte Modelle Produktionsdaten lokal auswerten, Wartungsteams unterstützen und technische Dokumente automatisch klassifizieren können.

Die Modelle bewegen sich typischerweise zwischen 100 Millionen und zehn Milliarden Parametern. Varianten wie Phi-2 (2,7 Mrd. Parameter) oder Phi-4-Mini-Reasoning (3,8 Mrd.) erreichen in Einzeldisziplinen Leistungswerte, die deutlich größeren Modellen nahekommen.

Kompakte Modelle können innerhalb weniger GPU-Stunden an Wartungsprozesse, Maschinendaten oder domänenspezifische Terminologie angepasst werden. Techniken wie LoRA erleichtern modulare Erweiterungen, ohne das Basismodell neu zu trainieren. Durch den geringen Ressourcenbedarf ist ein Betrieb direkt am Shopfloor oder in abgeschotteten OT-Netzen möglich, ohne Cloud-Abhängigkeiten und mit kurzen Antwortzeiten. Runtimes wie NVIDIA Dynamo unterstützen das parallele Ausführen mehrerer SLMs und vereinfachen Integrationen in MES-, ERP- oder SCADA-Umgebungen.

Hybride Ansätze kompensieren Grenzen kleiner Modelle

In Bereichen wie komplexem Reasoning, kreativer Texterzeugung oder mehrsprachiger Verarbeitung erreichen kleine Modelle weiterhin ihre Grenzen. Laut NTT Data kombinieren Unternehmen daher kompakte und große Modelle in einem „SLM-first“-Ansatz: Strukturierbare Aufgaben übernehmen SLMs, während LLMs nur bei Bedarf als Fallback aktiv werden. Wissensdestillation, Domain Adaptive Pretraining (DAPT) und Supervised Fine-Tuning (SFT) spielen beim Aufbau der Modelle eine zentrale Rolle.

„Small Language Models eröffnen der Industrie neue Wege, KI gezielt, sicher und ressourcenschonend einzusetzen. Gerade in der Fertigung sind es in der Regel nicht die größten Modelle, sondern die am besten trainierten, die den Unterschied machen“, sagt Oliver Köth, CTO bei NTT DATA DACH. „Wir sehen bereits heute, wie Unternehmen ihre Produktionsdaten mit speziell trainierten Modellen lokal auswerten, wie Wartungsteams sich über sprachgesteuerte Assistenzsysteme unterstützen lassen oder wie technische Dokumente automatisch klassifiziert werden – direkt am Ort des Geschehens. Das Entscheidende ist: Mit SLMs lässt sich KI in den industriellen Alltag integrieren, ohne komplexe Cloud-Setups, ohne Datenrisiken, aber mit hoher Effizienz.“

(ID:50631295)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung