Kommentar von Artur Dox, IBM Erkennung von Anomalien in Sensordaten mit Machine Learning
Anbieter zum Thema
In vielen Industrieanwendungen erfassen verschiedene Sensoren regelmäßig große Mengen an zeitlichen Daten von Systemen, die für ein erfolgreiches Monitoring notwendig sind. Anomalien in Sensordaten weisen auf abnormales Verhalten eines Systems hin und können zu Problemen wie Datenverlust, Störungen oder Systemausfällen führen. Wie können Anomalien erkannt werden?

Es gibt viele verschiedene Ansätze für Anomalie-Erkennung, die auf Sensordaten angewendet werden können. Neben klassischen statistischen Methoden gibt es auf maschinellem Lernen basierende Methoden wie z. B. Clustering und künstliche neuronale Netze.
Genauso wichtig wie das Identifizieren von Anomalien ist allerdings auch die Analyse der Ursachen von aufgetretenen Fehlern. Anomalien können verschiedene Ursachen haben, die abhängig von der Anwendung und Umgebung sind. Bei einem System mit vielen Sensoren können Anomalien aufgrund von möglichen Zusammenhängen und Abhängigkeiten zwischen verschiedenen Sensoren auftreten. Wie kann man diese Beziehungen zwischen Sensoren erkennen und darstellen? Gibt es möglicherweise sogar kausale Abhängigkeiten? Wie könnte man Kausalität zwischen Sensoren entdecken und visualisieren?
Vergleich verschiedener Machine-Learning-basierter Modelle für Anomalie-Erkennung
Das Erkennen von Anomalien oder Ausreißern bedeutet, Muster in Daten zu entdecken, die nicht erwartet werden und nicht in einen definierten normalen Zustand eingeordnet werden können. Dabei gibt es verschiedene Modelle, die unterschiedlich gut Anomalien in den gegebenen Daten eines Anwendungsfalls erkennen können. Um ein geeignetes Modell für einen konkreten Anwendungsfall zu finden, ist es sinnvoll, verschiedene Modelle umzusetzen und auf den gleichen Daten zu vergleichen.
Die Vorgehensweise für ein solches Projekt richtet sich üblicherweise nach der CRISP-DM Methodik. CRISP-DM steht für „Cross-Industry Standard Process for Data-Mining“ und ist eine in der Industrie bewährte Vorgehensweise für Data Mining/Data-Science-Projekte.:
- 1. Business Understanding
- 2. Data Understanding
- 4. Modelling
- 5. Evaluation
- 6. Deployment
Die Data-Science- und Machine-Learning-Werkzeuge der IBM unterstützen Data Scientists bei den verschiedenen Projektphasen. Für die Verarbeitung der Sensordaten, der Entwicklung der Modelle und anschließender Modellbereitstellung können Watson Studio und Watson Machine Learning verwendet werden. Die Modellentwicklung wird mithilfe von bekannten Open-Source-Machine-Learning- und Deep-Learning-Bibliotheken (z. B. Scikit-Learn, Tensorflow, Keras) in Watson-Studio-Jupyter-Notebooks umgesetzt.
Für Data Understanding und Data Preparation müssen zunächst die „rohen“ Sensordaten verarbeitet und für die Modelle aufbereitet werden. Aufgrund der großen Menge an historischen Daten von mehreren Sensoren ist dafür genügend Rechenleistung notwendig. Dazu kann man in seinem Watson-Studio-Projekt eine geeignete Hardware-Konfiguration für seine Jupyter-Notebook-Umgebung auswählen. Für eine Python/R-Jupyter-Notebook-Umgebung kann man damit in der Standard-Konfiguration bis zu 16 vCPUs und 64 GB RAM verwenden.
Bei der Modellentwicklung für Anomalie-Erkennung basierend auf maschinellem Lernen muss berücksichtigt werden, ob genügend gekennzeichnete Daten („labeled data“) vorhanden sind. Also ob Sensordatenpunkte vorhanden sind, die als Anomalie gekennzeichnet sind. In einigen Industrien ist das eine Herausforderung, da es oftmals nur sehr wenige dieser Daten gibt – aufgrund der Tatsache, dass „richtige“ Anomalien in manchen Anwendungsfällen nur sehr selten auftreten. Dann müssen häufig Methoden verwendet werden, die auf unüberwachtem Lernen (Unsupervised Learning) basieren. Der geringe Anteil an vorhandenen gekennzeichneten Daten wird als Testdaten zur Auswertung und Vergleich der Modelle verwendet.
Clustering-Verfahren
Verschiedene Clustering-Verfahren (z. B. K-Means, DBSCAN) können üblicherweise auf diese Art von Daten angewendet werden. Außerdem können auch komplexere Algorithmen wie Deep-Learning-Verfahren mit tiefen neuronalen Netzen (z. B. Autoencoder, LSTM) für eine Anomalie-Erkennung verwendet werden. In dem gegebenen Anwendungsfall mit ungekennzeichneten Daten und einem sehr geringen Anteil an Testdaten hat sich ergeben, dass eine Kombination aus zwei verschiedenen Clustering-Verfahren eine geeignete Methode zu Erkennung von Anomalien in den Sensordaten ist.
Das zeigt auch, dass es ein guter Ansatz ist, mehrere Modelle in Kombination zu verwenden, um damit die Präzision der Ergebnisse zu erhöhen. Je mehr Modelle die gleichen Datenpunkte als Anomalien erkennen, desto wahrscheinlicher ist es, dass diese auch wirklich Anomalien sind.
Kausalitätsanalyse mit „Temporal Causal Modeling (TCM)“
Mithilfe des IBM SPSS Modeler lassen sich kausale Beziehungen zwischen Sensoren oder anderen zeitlichen Geschäftsmetriken sehr einfach erkennen und visualisieren. SPSS Modeler ist eines der Data-Mining-Werkzeuge von IBM, mit dem man den gesamten Data-Mining-Prozess nach CRISP-DM durchführen und begleiten kann. Eine der Modellierungsmethoden im SPSS Modeler ist TCM. Mit der temporalen kausalen Modellierung können zwischen ausgewählten Zeitreihen (z. B. von Sensoren) kausale Zusammenhänge in historischen Daten ermittelt werden. Aber was genau bedeutet Kausalität in diesem Zusammenhang?
Die Kausalität zwischen zwei Sensoren basiert auf statistischen Vorhersagemodellen. Wenn man zukünftige Werte eines Sensors (A) vorhersagen möchte, wird man intuitiv zunächst nur historische Daten dieses einen Sensors verwenden. Sollte ein zweiter Sensor (B) allerdings den ersten Sensor (A) kausal beeinflussen, dann sollten auch die historischen Daten des zweiten Sensors (B) nützlich für das Vorhersagemodell des ersten Sensors (A) sein.
Diese Kausalität kann man auch prädiktive Kausalität nennen. Das Gesamtmodellsystem von TCM zeigt eine grafische Darstellung der signifikanten kausalen Abhängigkeiten zwischen allen Sensoren oder eines einzelnen Sensors.
Sollten über die Zeit Änderungen in sonst üblichen und bekannten kausalen Beziehungen zwischen Sensoren auftreten, könnte das auf sich anbahnende Anomalien im System hinweisen. Änderungen können z. B. das Verschwinden oder die Abschwächung von kausalen Abhängigkeiten sein.
Dadurch können möglicherweise auch langfristige Abnutzungen von Geräten frühzeitig erkannt werden, bevor kritische Fehler auftreten. Somit könnte die statistische Analyse von kausalen Beziehungen in Sensordaten auch die präventive und vorausschauende Wartung von Systemen unterstützten.
Fazit
Es gibt viele verschiedene Ansätze für Anomalie-Erkennung in Sensordaten und die Auswahl der richtigen Methode hängt vor allem von den Eigenschaften der Daten und der Aufgabenstellung ab. Bei den Machine Learning basierten Ansätzen geht es häufig darum, kurzfristige Anomalien entweder in Echtzeit oder in einem Batch von historischen Daten zu erkennen. Im Vergleich dazu könnte ein Ansatz basierend auf Kausalitäten verwendet werden, um Langzeittrends zu analysieren und somit möglicherweise Anomalien, die langsam in Erscheinung treten, frühzeitig zu erkennen.
(ID:47095626)