Definition Was ist Unteranpassung?

Von Dipl.-Ing. (FH) Stefan Luber 4 min Lesedauer

Anbieter zum Thema

Unteranpassung ist ein Phänomen und ein unerwünschtes Verhalten aus dem Bereich der Statistik und der Künstlichen Intelligenz. Es tritt zum Beispiel beim Maschinellen Lernen auf. Dem Machine-Learning-Modell fehlt die Fähigkeit, die relevanten Muster und Merkmale in den Eingangsdaten zu erkennen, um die richtigen Vorhersagen zu treffen oder Schlussfolgerungen zu ziehen. Das gegenteilige Problem zur Unteranpassung beim Training von KI-Modellen ist die Überanpassung.

(Bild:  © aga7ta - stock.adobe.com)
(Bild: © aga7ta - stock.adobe.com)

Der englische Fachbegriff für Unteranpassung lautet Underfitting. Das Underfitting ist ein Phänomen und Problem aus dem Bereich der Statistik und der Künstlichen Intelligenz. Es tritt zum Beispiel beim Maschinellen Lernen auf und verhindert, dass ein Modell genaue Vorhersagen trifft oder die richtigen Schlussfolgerungen zieht. Dem Modell fehlt es an der Fähigkeit, die relevanten Muster, Merkmale und Beziehungen in den Eingangsdaten zu erkennen, um die Zielvariablen hinreichend gut zu beschreiben. Das Modell hat quasi eine Lernschwäche oder Lernstörung und erzielt sowohl bei den Trainingsdaten als auch bei neuen, bisher ungesehenen Daten schlechte Vorhersage- und Klassifizierungsleistungen.

Underfitting ist ein unerwünschtes Verhalten. Ein von Unteranpassung betroffenes Modell ist nicht in der Lage, anwendbares Wissen aus den Trainingsdaten zu gewinnen. Es verallgemeinert und vereinfacht zu stark, da es die Komplexität der Daten nicht erfassen kann. Schon bei den Trainingsdaten ist die Fehlerrate zu hoch. Unteranpassung schränkt aufgrund der schlechten Leistungen den sinnvollen Einsatz eines KI-Modells für reale Anwendungen stark ein. Im ungünstigsten Fall ist das Modell vollständig unbrauchbar. Eine Unteranpassung von KI-Modellen gilt es daher zu vermeiden.

Ursachen für eine Unteranpassung von Machine-Learning-Modellen

Machine-Learning-Modelle werden zunächst mit bekannten Daten trainiert. Basierend auf den in den Trainingsdatensätzen erkannten Mustern, Merkmalen und Beziehungen sind sie anschließend in der Lage, Vorhersagen für neue Datensätze zu treffen oder sinnvolle Schlussfolgerungen aus diesen zu ziehen. Ist ein Modell aber zu einfach, um die relevanten Merkmale, Muster und Beziehungen in den Daten zu erlernen und daraus die Zielvariablen zu bestimmen, tritt eine Unteranpassung auf. Dem Modell fehlt es zum Beispiel an Parametern, Funktionen, ausreichend komplexen Algorithmen oder an Neuronenschichten.

Unter Umständen ist das Modell auch generell ungeeignet für die Art von Eingangsdaten und den geforderten Output. Eine weitere Ursache für Unteranpassung ist ein zu kurzes Training oder ein Training mit zu wenig aussagekräftigen und repräsentativen Daten.

Abgrenzung zur Überanpassung

Ein weiteres bei KI-Modellen und beim Maschinellen Lernen auftretendes Problem ist die Überanpassung (Overfitting). Eine Überanpassung tritt auf, wenn sich das Modell zu eng an die Trainingsdaten anpasst. Es lernt die Muster und Merkmale der Trainingsdaten zu genau und hat Schwierigkeiten, das Gelernte zu Verallgemeinern. Das Modell kann zwar exakte Vorhersagen für die Trainingsdaten liefern, hat aber Probleme, die richtigen Schlussfolgerungen aus neuen, bisher ungesehenen Daten zu ziehen. Das Modell hat die Trainingsdaten quasi „auswendig gelernt“, kann aber sein „Wissen“ nicht auf andere Daten übertragen. Es liefert keine guten Vorhersageergebnisse.

Ursachen für ein Overfitting sind zu komplexe Modelle, zu langes Training mit den gleichen Daten, zu wenige Trainingsdaten oder Trainingsdatensätze mit zu vielen irrelevanten Informationen. Eine weitere Ursache kann auch ein zu großes Gedächtnis des Modells sein, das dazu führt, dass Trainingsdaten mehr oder weniger auswendig gelernt werden, anstatt daraus Regeln für Vorhersagen abzuleiten. Die Überanpassung von KI-Modellen sollte wie die Unteranpassung vermieden werden.

Da Over- und Underfitting viele gegenläufige Ursachen besitzen, wird beim Training von KI-Modellen in der Regel versucht, eine Art von Gleichgewicht zwischen Unter- und Überanpassung zu finden. Oft ist es aber schwierig, den richtigen Punkt zu finden, Overfitting zu vermeiden und gleichzeitig zu verhindern, dass das Modell in ein Underfitting abgleitet. Die Balance zwischen Overfitting und Underfitting beim Training ist entscheidend für eine gute Generalisierungsfähigkeit des Modells.

Erkennen von Über- und Unteranpassung

Um KI-Modelle mit guten Klassifizierungs- oder Vorhersageleistungen zu erhalten, ist es wichtig, sowohl Über- als auch eine Unteranpassung zu erkennen. Eine Überanpassung lässt sich erkennen, wenn die Vorhersagen auf Trainingsdaten sehr gut sind, aber das Modell bei neuen, bisher ungesehenen Daten versagt. Bei Unteranpassung ist die Modellgenauigkeit sowohl bei den Trainingsdaten als auch bei neuen Daten schlecht. Da die Überanpassung in der Regel erst ab einer bestimmten Trainingsdauer auftritt und Unteranpassung eine Folge von zu kurzem Training sein kann, ist es sinnvoll, das Vorhersageverhalten während des Trainings sowohl mit den Trainingsdaten als auch mit einem Satz an Validierungsdaten immer wieder zu überprüfen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Trägt man die Fehlerquote der Vorhersagen für Trainings- und Testdaten in einem Diagramm auf, sinken beide Quoten zunächst. Ab einer bestimmten Trainingsdauer erreicht die Fehlerquote für die Trainingsdaten ein dauerhaft niedriges Niveau, während die Fehlerquote für die Testdaten (Validierungsdaten) wieder beginnt zu steigen. Dieses Verhalten deutet auf eine Überanpassung hin. Wird das Training zu früh abgebrochen, bevor ein Minimum bei der Fehlerquote erreicht ist, kann das auf Unteranpassung hinweisen.

Maßnahmen zur Vermeidung von Unteranpassung

Unteranpassung ist ein unerwünschtes Verhalten und sollte vermieden werden. Maßnahmen zur Vermeidung von Underfitting sind:

  • Erhöhen der Komplexität des Modells (zum Beispiel mehr Parameter, Funktionen, Neuronenschichten oder komplexere Algorithmen)
  • Auswahl eines für die Art der Eingangsdaten und die gewünschten Vorhersageleistungen geeigneten Modells
  • Kombination mehrerer Modelle
  • Bereitstellung von mehr Trainingsdaten
  • Längeres Training und Überwachung des Trainings mit Validierungsdaten

(ID:49993542)