In vielen Industrieanwendungen erfassen verschiedene Sensoren regelmäßig große Mengen an zeitlichen Daten von Systemen, die für ein erfolgreiches Monitoring notwendig sind. Anomalien in Sensordaten weisen auf abnormales Verhalten eines Systems hin und können zu Problemen wie Datenverlust, Störungen oder Systemausfällen führen. Wie können Anomalien erkannt werden?
Anomalien in Sensordaten lassen sich auf verschiedene Weisen erkennen. Neben klassischen statistischen Methoden stehen auf Machine Learning basierende Verfahren zur Verfügung wie z. B. Clustering und künstliche neuronale Netze.
(Bild: IBM)
Es gibt viele verschiedene Ansätze für Anomalie-Erkennung, die auf Sensordaten angewendet werden können. Neben klassischen statistischen Methoden gibt es auf maschinellem Lernen basierende Methoden wie z. B. Clustering und künstliche neuronale Netze.
Genauso wichtig wie das Identifizieren von Anomalien ist allerdings auch die Analyse der Ursachen von aufgetretenen Fehlern. Anomalien können verschiedene Ursachen haben, die abhängig von der Anwendung und Umgebung sind. Bei einem System mit vielen Sensoren können Anomalien aufgrund von möglichen Zusammenhängen und Abhängigkeiten zwischen verschiedenen Sensoren auftreten. Wie kann man diese Beziehungen zwischen Sensoren erkennen und darstellen? Gibt es möglicherweise sogar kausale Abhängigkeiten? Wie könnte man Kausalität zwischen Sensoren entdecken und visualisieren?
Vergleich verschiedener Machine-Learning-basierter Modelle für Anomalie-Erkennung
Das Erkennen von Anomalien oder Ausreißern bedeutet, Muster in Daten zu entdecken, die nicht erwartet werden und nicht in einen definierten normalen Zustand eingeordnet werden können. Dabei gibt es verschiedene Modelle, die unterschiedlich gut Anomalien in den gegebenen Daten eines Anwendungsfalls erkennen können. Um ein geeignetes Modell für einen konkreten Anwendungsfall zu finden, ist es sinnvoll, verschiedene Modelle umzusetzen und auf den gleichen Daten zu vergleichen.
Die Vorgehensweise für ein solches Projekt richtet sich üblicherweise nach der CRISP-DM Methodik. CRISP-DM steht für „Cross-Industry Standard Process for Data-Mining“ und ist eine in der Industrie bewährte Vorgehensweise für Data Mining/Data-Science-Projekte.:
Die sechs zyklischen Phasen eines Projekts nach CRISP-DM
(Bild: IBM)
Die Data-Science- und Machine-Learning-Werkzeuge der IBM unterstützen Data Scientists bei den verschiedenen Projektphasen. Für die Verarbeitung der Sensordaten, der Entwicklung der Modelle und anschließender Modellbereitstellung können Watson Studio und Watson Machine Learning verwendet werden. Die Modellentwicklung wird mithilfe von bekannten Open-Source-Machine-Learning- und Deep-Learning-Bibliotheken (z. B. Scikit-Learn, Tensorflow, Keras) in Watson-Studio-Jupyter-Notebooks umgesetzt.
Für Data Understanding und Data Preparation müssen zunächst die „rohen“ Sensordaten verarbeitet und für die Modelle aufbereitet werden. Aufgrund der großen Menge an historischen Daten von mehreren Sensoren ist dafür genügend Rechenleistung notwendig. Dazu kann man in seinem Watson-Studio-Projekt eine geeignete Hardware-Konfiguration für seine Jupyter-Notebook-Umgebung auswählen. Für eine Python/R-Jupyter-Notebook-Umgebung kann man damit in der Standard-Konfiguration bis zu 16 vCPUs und 64 GB RAM verwenden.
Bei der Modellentwicklung für Anomalie-Erkennung basierend auf maschinellem Lernen muss berücksichtigt werden, ob genügend gekennzeichnete Daten („labeled data“) vorhanden sind. Also ob Sensordatenpunkte vorhanden sind, die als Anomalie gekennzeichnet sind. In einigen Industrien ist das eine Herausforderung, da es oftmals nur sehr wenige dieser Daten gibt – aufgrund der Tatsache, dass „richtige“ Anomalien in manchen Anwendungsfällen nur sehr selten auftreten. Dann müssen häufig Methoden verwendet werden, die auf unüberwachtem Lernen (Unsupervised Learning) basieren. Der geringe Anteil an vorhandenen gekennzeichneten Daten wird als Testdaten zur Auswertung und Vergleich der Modelle verwendet.
Clustering-Verfahren
Verschiedene Clustering-Verfahren (z. B. K-Means, DBSCAN) können üblicherweise auf diese Art von Daten angewendet werden. Außerdem können auch komplexere Algorithmen wie Deep-Learning-Verfahren mit tiefen neuronalen Netzen (z. B. Autoencoder, LSTM) für eine Anomalie-Erkennung verwendet werden. In dem gegebenen Anwendungsfall mit ungekennzeichneten Daten und einem sehr geringen Anteil an Testdaten hat sich ergeben, dass eine Kombination aus zwei verschiedenen Clustering-Verfahren eine geeignete Methode zu Erkennung von Anomalien in den Sensordaten ist.
Das zeigt auch, dass es ein guter Ansatz ist, mehrere Modelle in Kombination zu verwenden, um damit die Präzision der Ergebnisse zu erhöhen. Je mehr Modelle die gleichen Datenpunkte als Anomalien erkennen, desto wahrscheinlicher ist es, dass diese auch wirklich Anomalien sind.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Kausalitätsanalyse mit „Temporal Causal Modeling (TCM)“
Mithilfe des IBM SPSS Modeler lassen sich kausale Beziehungen zwischen Sensoren oder anderen zeitlichen Geschäftsmetriken sehr einfach erkennen und visualisieren. SPSS Modeler ist eines der Data-Mining-Werkzeuge von IBM, mit dem man den gesamten Data-Mining-Prozess nach CRISP-DM durchführen und begleiten kann. Eine der Modellierungsmethoden im SPSS Modeler ist TCM. Mit der temporalen kausalen Modellierung können zwischen ausgewählten Zeitreihen (z. B. von Sensoren) kausale Zusammenhänge in historischen Daten ermittelt werden. Aber was genau bedeutet Kausalität in diesem Zusammenhang?
Die Kausalität zwischen zwei Sensoren basiert auf statistischen Vorhersagemodellen. Wenn man zukünftige Werte eines Sensors (A) vorhersagen möchte, wird man intuitiv zunächst nur historische Daten dieses einen Sensors verwenden. Sollte ein zweiter Sensor (B) allerdings den ersten Sensor (A) kausal beeinflussen, dann sollten auch die historischen Daten des zweiten Sensors (B) nützlich für das Vorhersagemodell des ersten Sensors (A) sein.
Die farblich markierten Pfeile zeigen einen kausalen Zusammenhang zwischen zwei Sensoren. Die Pfeilrichtung gibt dabei die Richtung der Kausalitätsbeziehung an, das heißt, eine Verbindung von Sensor A zu Sensor B bedeutet Sensor A beeinflusst Sensor B.
(Bild: IBM)
Diese Kausalität kann man auch prädiktive Kausalität nennen. Das Gesamtmodellsystem von TCM zeigt eine grafische Darstellung der signifikanten kausalen Abhängigkeiten zwischen allen Sensoren oder eines einzelnen Sensors.
Sollten über die Zeit Änderungen in sonst üblichen und bekannten kausalen Beziehungen zwischen Sensoren auftreten, könnte das auf sich anbahnende Anomalien im System hinweisen. Änderungen können z. B. das Verschwinden oder die Abschwächung von kausalen Abhängigkeiten sein.
Dadurch können möglicherweise auch langfristige Abnutzungen von Geräten frühzeitig erkannt werden, bevor kritische Fehler auftreten. Somit könnte die statistische Analyse von kausalen Beziehungen in Sensordaten auch die präventive und vorausschauende Wartung von Systemen unterstützten.
Fazit
Der Autor: Artur Dox ist Corporate Student bei der IBM
(Bild: IBM)
Es gibt viele verschiedene Ansätze für Anomalie-Erkennung in Sensordaten und die Auswahl der richtigen Methode hängt vor allem von den Eigenschaften der Daten und der Aufgabenstellung ab. Bei den Machine Learning basierten Ansätzen geht es häufig darum, kurzfristige Anomalien entweder in Echtzeit oder in einem Batch von historischen Daten zu erkennen. Im Vergleich dazu könnte ein Ansatz basierend auf Kausalitäten verwendet werden, um Langzeittrends zu analysieren und somit möglicherweise Anomalien, die langsam in Erscheinung treten, frühzeitig zu erkennen.