Unteranpassung ist ein Phänomen und ein unerwünschtes Verhalten aus dem Bereich der Statistik und der Künstlichen Intelligenz. Es tritt zum Beispiel beim Maschinellen Lernen auf. Dem Machine-Learning-Modell fehlt die Fähigkeit, die relevanten Muster und Merkmale in den Eingangsdaten zu erkennen, um die richtigen Vorhersagen zu treffen oder Schlussfolgerungen zu ziehen. Das gegenteilige Problem zur Unteranpassung beim Training von KI-Modellen ist die Überanpassung.
Der englische Fachbegriff für Unteranpassung lautet Underfitting. Das Underfitting ist ein Phänomen und Problem aus dem Bereich der Statistik und der Künstlichen Intelligenz. Es tritt zum Beispiel beim Maschinellen Lernen auf und verhindert, dass ein Modell genaue Vorhersagen trifft oder die richtigen Schlussfolgerungen zieht. Dem Modell fehlt es an der Fähigkeit, die relevanten Muster, Merkmale und Beziehungen in den Eingangsdaten zu erkennen, um die Zielvariablen hinreichend gut zu beschreiben. Das Modell hat quasi eine Lernschwäche oder Lernstörung und erzielt sowohl bei den Trainingsdaten als auch bei neuen, bisher ungesehenen Daten schlechte Vorhersage- und Klassifizierungsleistungen.
Underfitting ist ein unerwünschtes Verhalten. Ein von Unteranpassung betroffenes Modell ist nicht in der Lage, anwendbares Wissen aus den Trainingsdaten zu gewinnen. Es verallgemeinert und vereinfacht zu stark, da es die Komplexität der Daten nicht erfassen kann. Schon bei den Trainingsdaten ist die Fehlerrate zu hoch. Unteranpassung schränkt aufgrund der schlechten Leistungen den sinnvollen Einsatz eines KI-Modells für reale Anwendungen stark ein. Im ungünstigsten Fall ist das Modell vollständig unbrauchbar. Eine Unteranpassung von KI-Modellen gilt es daher zu vermeiden.
Ursachen für eine Unteranpassung von Machine-Learning-Modellen
Machine-Learning-Modelle werden zunächst mit bekannten Daten trainiert. Basierend auf den in den Trainingsdatensätzen erkannten Mustern, Merkmalen und Beziehungen sind sie anschließend in der Lage, Vorhersagen für neue Datensätze zu treffen oder sinnvolle Schlussfolgerungen aus diesen zu ziehen. Ist ein Modell aber zu einfach, um die relevanten Merkmale, Muster und Beziehungen in den Daten zu erlernen und daraus die Zielvariablen zu bestimmen, tritt eine Unteranpassung auf. Dem Modell fehlt es zum Beispiel an Parametern, Funktionen, ausreichend komplexen Algorithmen oder an Neuronenschichten.
Unter Umständen ist das Modell auch generell ungeeignet für die Art von Eingangsdaten und den geforderten Output. Eine weitere Ursache für Unteranpassung ist ein zu kurzes Training oder ein Training mit zu wenig aussagekräftigen und repräsentativen Daten.
Abgrenzung zur Überanpassung
Ein weiteres bei KI-Modellen und beim Maschinellen Lernen auftretendes Problem ist die Überanpassung (Overfitting). Eine Überanpassung tritt auf, wenn sich das Modell zu eng an die Trainingsdaten anpasst. Es lernt die Muster und Merkmale der Trainingsdaten zu genau und hat Schwierigkeiten, das Gelernte zu Verallgemeinern. Das Modell kann zwar exakte Vorhersagen für die Trainingsdaten liefern, hat aber Probleme, die richtigen Schlussfolgerungen aus neuen, bisher ungesehenen Daten zu ziehen. Das Modell hat die Trainingsdaten quasi „auswendig gelernt“, kann aber sein „Wissen“ nicht auf andere Daten übertragen. Es liefert keine guten Vorhersageergebnisse.
Ursachen für ein Overfitting sind zu komplexe Modelle, zu langes Training mit den gleichen Daten, zu wenige Trainingsdaten oder Trainingsdatensätze mit zu vielen irrelevanten Informationen. Eine weitere Ursache kann auch ein zu großes Gedächtnis des Modells sein, das dazu führt, dass Trainingsdaten mehr oder weniger auswendig gelernt werden, anstatt daraus Regeln für Vorhersagen abzuleiten. Die Überanpassung von KI-Modellen sollte wie die Unteranpassung vermieden werden.
Da Over- und Underfitting viele gegenläufige Ursachen besitzen, wird beim Training von KI-Modellen in der Regel versucht, eine Art von Gleichgewicht zwischen Unter- und Überanpassung zu finden. Oft ist es aber schwierig, den richtigen Punkt zu finden, Overfitting zu vermeiden und gleichzeitig zu verhindern, dass das Modell in ein Underfitting abgleitet. Die Balance zwischen Overfitting und Underfitting beim Training ist entscheidend für eine gute Generalisierungsfähigkeit des Modells.
Erkennen von Über- und Unteranpassung
Um KI-Modelle mit guten Klassifizierungs- oder Vorhersageleistungen zu erhalten, ist es wichtig, sowohl Über- als auch eine Unteranpassung zu erkennen. Eine Überanpassung lässt sich erkennen, wenn die Vorhersagen auf Trainingsdaten sehr gut sind, aber das Modell bei neuen, bisher ungesehenen Daten versagt. Bei Unteranpassung ist die Modellgenauigkeit sowohl bei den Trainingsdaten als auch bei neuen Daten schlecht. Da die Überanpassung in der Regel erst ab einer bestimmten Trainingsdauer auftritt und Unteranpassung eine Folge von zu kurzem Training sein kann, ist es sinnvoll, das Vorhersageverhalten während des Trainings sowohl mit den Trainingsdaten als auch mit einem Satz an Validierungsdaten immer wieder zu überprüfen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Trägt man die Fehlerquote der Vorhersagen für Trainings- und Testdaten in einem Diagramm auf, sinken beide Quoten zunächst. Ab einer bestimmten Trainingsdauer erreicht die Fehlerquote für die Trainingsdaten ein dauerhaft niedriges Niveau, während die Fehlerquote für die Testdaten (Validierungsdaten) wieder beginnt zu steigen. Dieses Verhalten deutet auf eine Überanpassung hin. Wird das Training zu früh abgebrochen, bevor ein Minimum bei der Fehlerquote erreicht ist, kann das auf Unteranpassung hinweisen.
Maßnahmen zur Vermeidung von Unteranpassung
Unteranpassung ist ein unerwünschtes Verhalten und sollte vermieden werden. Maßnahmen zur Vermeidung von Underfitting sind:
Erhöhen der Komplexität des Modells (zum Beispiel mehr Parameter, Funktionen, Neuronenschichten oder komplexere Algorithmen)
Auswahl eines für die Art der Eingangsdaten und die gewünschten Vorhersageleistungen geeigneten Modells
Kombination mehrerer Modelle
Bereitstellung von mehr Trainingsdaten
Längeres Training und Überwachung des Trainings mit Validierungsdaten