Kommentar von Dr. Olaf Nimz, Trivadis Preventive Maintenance – Fehlerprognose mit Machine Learning

Autor / Redakteur: Dr. Olaf Nimz / Nico Litzel |

Die Entscheidung, Maschinenteile vorsorglich auszutauschen oder Maschinen erst nach einem Schaden zu reparieren, erfordert von Betreibern von Industrieanlagen und Prozessverantwortlichen eine sorgfältige Kosten-Nutzen-Abwägung. Ist genauer vorhersehbar, wann ein Teil ausfällt, könnten Wartung und Instandhaltung im Hinblick auf planbare und kürzere Stillstandszeiten optimiert werden.

Anbieter zum Thema

Der Autor: Dr. Olaf Nimz ist Principal Consultant & Disziplin Manager für Data Science bei Trivadis
Der Autor: Dr. Olaf Nimz ist Principal Consultant & Disziplin Manager für Data Science bei Trivadis
(Bild: Trivadis)

Doch trotz intensiver Überwachung können Ursachen von Fehlern und sich gegenseitig bedingende Fehler oft nicht eindeutig erkannt werden. Selten auftretende Fehler lassen sich auch nicht über wiederkehrende Muster aufdecken. Ermittelt man jedoch, in welchem Umfang und wie häufig die Messwerte vom typischen Betriebszustand abweichen, lassen sich Indikatoren entwickeln, mit denen Ausfälle verhältnismäßig gut vorherzusehen sind. Innerhalb bekannter Vorhersagetoleranzen lässt sich die Wartungs- und Instandhaltungslogistik entsprechend planen und ungeplante längere Stillstandszeiten können in vielen Fällen vermieden werden.

Bildergalerie
Bildergalerie mit 6 Bildern

Service-Einheiten verfügen heute häufig über umfassendes Datenmaterial zum Zustand von Maschinen. Dennoch bleiben manche Fehler, die zu Störungen und Ausfällen führen, unerkannt. Grund dafür ist, dass sie im Vorfeld keine sichtbare Überschreitung der üblichen Grenzwerte auslösen. Diese unliebsamen Überraschungen stellen die Logistikverantwortlichen vor die Herausforderung, geeignetes Personal, Werkzeuge und Ersatzteile ohne Vorwarnung, jedoch schnellstmöglich an die defekte Maschine zu bringen.

Indikatoren der Abweichung

Ein erfolgsversprechender datengetriebener Ansatz der Fehleranalyse beruht darauf, die gesamten Messdaten für einen repräsentativen Zeitraum zu modellieren, ohne dabei auf das detaillierte Know-how des Konstrukteurs angewiesen zu sein, etwa in Form von zeitabhängigen Differentialgleichungen. Im Rahmen der Modellierung wird die Abhängigkeit jedes individuellen Sensors zu allen relevanten Sensoren erlernt und damit vorhersagbar.

Zunächst muss natürlich der Normalzustand in all seinen typischen Betriebszuständen erfasst werden. Anschließend folgt die Prüfung der Konsistenz zwischen den Sensoren, indem die Abweichung zwischen Ist- zu Soll-Wert gemessen wird. Die Skala, auf der die Abweichung bewertet wird, bezieht sich auf die relative Genauigkeit, mit der das Modell diesen Sensorwert auf Basis der anderen Werte vorhersagen kann. Diese Skalierung wird auch als z-Score bezeichnet und entspricht der Wahrscheinlichkeit, dass ein neuer Messwert außerhalb des Intervalls (Prediction Interval) liegen darf. Ein vorzeichenneutraler Abweichungswert von 2 beziehungsweise 3 ist in 1:20 beziehungsweise 1:100 von zeitlich hintereinander liegenden Messungen als unauffällig zu bewerten. Auf diese Weise erhält man ein Panel mit sehr sensiblen Indikatoren (virtual Sensor). Diese zeigen bei jedem Sensor an, ob sie konsistent zu den übrigen Sensorwerten im aktuellen Zustand sind.

Der Austausch von Bauteilen, Reparaturen und Kalibrierungen erzeugen ein Offset, also eine konstante Messabweichung, die die Indikatoren folgerichtig anzeigen. Dem veränderten Normalzustand wird durch Anpassen des Referenzzeitraums und gegebenenfalls auch des Modells Rechnung getragen. Die Informationen aus dem Logbuch über die vorgenommen Systemänderungen fließen sofort als Vermerk in die Visualisierung ein. Die erzeugten Warnsignale lassen sich aufgrund der Veränderung in der Prozesssteuerung im Anschluss leichter richtig interpretieren und einordnen.

Zustandslosigkeit

Idealerweise kann durch Ausschluss von nicht-stationären Übergangszuständen die Zeitabhängigkeit vermieden werden. Diese erzwingt das Einbeziehen der kurzfristigen Vergangenheit, wie beispielsweise schrittweises Anfahren oder Aufwärmphase. Temporäre Fluktuationen wirken sich auf die Präzision aus, sind also indirekt im Fehlerbalken enthalten. Für Systeme mit stark schwankender Last ist ein nicht-linearer Anteil zu erwarten. Bei Windturbinen zum Beispiel stellen Windgeschwindigkeit und Windrichtung zusammen mit der Position der Turbine im Windpark und dem daraus resultierenden winkelabhängigen Windschatten wesentliche externe Einflussfaktoren dar. Lineare Modelle verarbeiten die geeichten Sensordaten in physikalischen Masseinheiten.

Um nicht-lineare Effekte zu kompensieren, führt die entsprechende Transformation zu einer Linearisierung des Modells und erleichtert damit die Komplexität des Trainings durch Anwendung deterministischer Methoden. Erkauft wird das durch Transformationsansätze wie zum Beispiel teilautomatisierte Box-Cox, die für die Anwender zu nicht-kommunizierbarer Skalierung ohne physikalischen Sinn führt oder eine Rücktransformation der Vorhersage und ihrer Verlässlichkeitsgrenzen erforderlich macht. Damit geht ein Vorteil der sogenannten „White-Box“-Methode verloren, die in der Regel aufgrund ihrer besseren Nachvollziehbarkeit von Ingenieuren leichter akzeptiert wird.

Akzeptanz durch Visualisierung

Die Modelle zur Konsistenzprüfung jedes einzelnen Sensors können über eine Wasserfall-Visualisierung überprüft werden, welche die relevanten und zeitweise korrelierten Eingabewerten anzeigt. Dort ist der individuelle Einfluss der Sensorwerte auf die Vorhersage zu jedem Zeitpunkt sichtbar und per Mittelwert oder Median sogar für längere Perioden darstellbar. Damit wird die Interpretation der einzelnen Koeffizienten nachvollziehbar, weil sie die unterschiedliche Skala der Eingabewerte kompensiert und erst nach der Multiplikation sinnvoll vergleichbar sind.

Multikollinearität

Selbst einfache Ansätze, wie die lineare Regression, stehen vor der üblichen Herausforderung, die minimale Auswahl der Variablen zu bestimmen. Insbesondere eine stark korrelierte Kennzahl bläht die Präzision der Vorhersage künstlich auf, also genau den Wert, den wir zur Bewertung der Abweichung benutzen. Eine der Modellierung vorausgehende globale Selektion ist hier ungeeignet, da temporäre lokale Effekte für jeden zu modellierenden Sensor unterschiedlich wichtig werden.

Die optimale Teilmenge der Variablen aus dem multidimensionalen Raum zeichnet sich durch Kenngrößen der Modellqualität wie AIC, BIC, R2adj. unter gleichzeitiger Beachtung der minimalen „Variable Inflation Faktor“ (VIF) in Bezug auf die restlichen Sensoren der Gleichung aus. Da beide Kriterien voneinander abhängig sind, heißt der Lösungsansatz Multi-Parameter-Optimierung. Selbst bei zwanzig Variablen und deterministischer Modellierung ist die Berechnung aller Kombinationen ausgeschlossen, da nicht nur 202 sondern eher 220 Varianten die kombinatorische Explosion erzeugt. Der pragmatische Ansatz, der schrittweise die nächstbeste Variable hinzufügt oder entfernt, folgt allerdings nur einem Kriterium. Die optimale Lösung ist nicht einfach erreichbar, jedoch ein lokales Minimum, das nach Plausibilitätsprüfung einen akzeptablen Kompromiss darstellt.

Produktivsetzung

Die Herausforderung aus dem Data-Mining-Industrie-Standard-Vorgehen CRISP-DM liegen wider Erwarten nicht in der statistischen Modellierung oder Datenvorbereitung. Die Berechnung des Business Case, das heißt die Quantifizierung des Nutzens und der Produktivsetzung der Modelle, stellen die heikelsten Bereiche dar. Heute sind wir in der glücklichen Lage, dass sich die Produktivsetzung durch die weitverbreitete Integration von R oder Python wesendlich vereinfacht hat. In Dateninfrastrukturen wie Datenbanken, Big-Data-Umgebungen oder direkt in Visualisierungstools stehen vielfältige Optionen zur Verfügung um trainierte Modelle problemlos einzubauen.

Fazit

Die Quantifizierung als Vielfaches der erwarteten Fluktuation prüft die Konsistenz der einzelnen Sensordaten im Kontext des restlichen Systems. Damit wird eine Abweichung unabhängig vom dynamischen Verlauf des Sensors selbst erkennbar. Diese sensiblen Indikatoren zeigen verlässlich den Gesundheitszustand einzelner Komponenten des Systems an. Die frühzeitige Identifizierung als erster Schritt benötigt weiterhin die Expertise von Fachkräften zur Diagnose der Ursache. Die aus der System-Identifizierung abgeleiteten virtuellen Indikatoren dienen Kalman-Filtern bei regelmäßig wiederkehrenden Fehlern zu adaptiven Prognosen der verbleibenden Laufzeit.

Artikelfiles und Artikellinks

(ID:45819394)