Prädiktive Wartung in der Prozessindustrie Mit Machine Learning Fehler frühzeitig erkennen

Von Tobias Wehrmann, Application Engineer im Vertical Market Management Process, Phoenix Contact Electronics GmbH Lesedauer: 5 min |

Anbieter zum Thema

Machine Learning (ML) eröffnet viele neue Möglichkeiten zur Optimierung von in der Prozessindustrie installierten Anlagen. Doch welche Herausforderungen und Chancen bietet das maschinelle Lernen? Und wo werden entsprechende Lösungen in der Praxis umgesetzt?

Wartung ist eines der wichtigsten Themen in der Prozessindustrie.
Wartung ist eines der wichtigsten Themen in der Prozessindustrie.
(Bild: Phoenix Contact)

In den meisten Industrien müssen Anlagen hochverfügbar und zuverlässig arbeiten, so auch im prozesstechnischen Umfeld. Zur Sicherstellung dieser Anforderungen dient insbesondere die Wartung, die sich – wie alle Technologien – im Laufe der Zeit weiterentwickelt hat. Früher genügte eine einfache visuelle Inspektion der Anlage durch den Menschen. Aufgrund seiner Erfahrungen und seines Wissens entschied dieser dann, wann welche Komponente auszutauschen war. Mittlerweile verfügen Anlagen über zahlreiche Sensoren sowie Computer, die sämtliche relevanten Daten sammeln und diese durch Signalverarbeitung, Mustererkennung und Logik überwachen, um den Menschen bei der Wartung zu unterstützen.

Durch Industrie 4.0 eröffnen sich Anlagenbetreibern neue Optionen, da Daten in derartigen Lösungen allgegenwärtig sind. Wegen der großen Menge, hohen Übertragungsgeschwindigkeit und Diversität der Daten werden allerdings neue Ansätze für ihre Verarbeitung und Auswertung benötigt. An dieser Stelle hat sich in den vergangenen Jahren Machine Learning (ML) als Datenverarbeitungsmethode etabliert, sodass sich jetzt eine prädiktive Wartung realisieren lässt. Das bedeutet, dass Fehler in einer Anlage frühzeitig festgestellt werden können oder sogar die Ausfallwahrscheinlichkeit der jeweiligen Komponenten bestimmbar ist. Auf diese Weise lassen sich Austauschzyklen verbessern und somit Kosten einsparen.

Vorhersage von Fehlern und Ausfallwahrscheinlichkeiten

Prädiktive Wartung stellt einen Teil der präventiven Wartung dar. Bei ihr geht es darum, dass in der Anlage verbaute Komponenten ausgewechselt werden, bevor sie ausfallen. Im Gegensatz dazu steht die korrektive Wartung, also das Austauschen einer Komponente, nachdem sie einen Fehler aufweist. Bei der prädiktiven Wartung werden die Geräte oftmals nach einer gewissen Zeit ersetzt, die vom Hersteller angegeben ist und auf Erfahrungswerten im Hinblick auf deren Lebensdauer beruht. Das entspricht jedoch häufig nicht der Realität, weil die Komponenten schon früher nicht mehr funktionieren oder noch etwas länger arbeiten können. Laut Studien trifft es in 89 Prozent der Fälle zu, dass der Nutzungszeitraum eines Geräts nicht mit den angenommenen Werten übereinstimmt. Beide Fälle führen für die Anlagenbetreiber zu erhöhten Kosten – sei es aufgrund eines Fehlers, der durch zu spätes Austauschen verursacht wurde, oder durch das zu frühe Auswechseln, was wiederum allgemein die Ausfallwahrscheinlichkeit steigert, da diese bei neuen Komponenten generell höher ist.

Darüber hinaus wird eine Unterscheidung zwischen der Fehlerdiagnose und -prognose getroffen. Bei der Fehlerdiagnose soll ein anormales Verhalten der Anlage detektiert und es sollen Teile ersetzt werden, ehe es zu größeren Schäden kommt. Es handelt sich folglich um eine Anomalieerkennung, die sich bereits in einigen industriellen Bereichen im Einsatz befindet und schon mit wenigen Sensoren zuverlässig funktionieren kann. Im Gegensatz dazu versucht die Fehlerprognose Fehler und Ausfallwahrscheinlichkeiten vorherzusagen, um so den bestmöglichen Zeitpunkt für das Austauschen der Komponenten zu bestimmen.

Nutzung von überwachten neuronalen Netzen

In beiden Fällen lässt sich auf Basis der historischen Daten der Anlage mittels eines Machine-Learning-Algorithmus ein Modell generieren, das durch Trainieren befähigt wird, anormales Verhalten zu erkennen respektive zukünftiges Verhalten vorherzusagen. Dabei kann der Anwender überwacht (supervised) vorgehen. Zu diesem Zweck wird das Modell sowohl mit Daten über das korrekte ebenso wie über das falsche Verhalten der Anlage trainiert, sodass es diese Situationen in Zukunft unterscheiden kann. Zudem lässt sich so eine Klassifizierung der Fehlerarten durchführen. Allerdings können lediglich die Fehler festgestellt werden, die in den Trainingsdaten vorhanden sind.

Alternativ gibt es unüberwachte (unsupervised) Ansätze, bei denen in der Trainingsphase nur Daten verwendet werden, die das Normalverhalten beschreiben. Dadurch detektiert das Modell alle Abweichungen von diesem Verhalten, eine Differenzierung der Fehlerarten ist jedoch nicht möglich. In der Praxis haben sich die überwachten neuronalen Netze durchgesetzt. Ferner können weitere Modelle – beispielsweise Isolation Forest oder Autoencoder – gute Ergebnisse liefern. Einerseits lassen sich die bereits in der Anlage montierten Sensoren nutzen, oder es werden spezielle neue Sensoren eingebaut. Im ersten Fall spart der Anwender die Installationskosten ein, während sich beim zweiten Szenario in der Regel genauere Ergebnisse erzielen lassen.

Bildergalerie

Datenmenge und -qualität von großer Bedeutung

Die Daten stellen in den meisten Fällen die größten Probleme dar, wenn sie nicht in ausreichendem Umfang und guter Qualität zur Verfügung stehen. Denn es erfordert eine bestimmte Datenmenge, die sämtliche möglichen Fälle beinhaltet, sowie bei einem überwachten Modell außerdem eine gewisse Datenmenge über das Fehlverhalten, damit das Modell sie korrekt lernen kann. Fehlen diese Daten, treten später Fehlklassifikationen (Fehlalarme) oder Fehler auf, die das ML-Modell nicht ermittelt. Darüber hinaus muss die Datenqualität hoch sein, sodass das Modell auch die korrekte Funktionsweise der Anlage lernt. Um dies sicherzustellen, bedarf es der Datenvorverarbeitung vor dem Training des Modells durch eine Person, die sich sowohl mit der Anlage oder dem Prozess ebenso wie mit den Daten auskennt. Dieses Wissen wird ebenfalls zur korrekten Parametrierung der Modelle benötigt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Daten als Grundlage für selbstoptimierende Prozesse

In Industrie-4.0-Lösungen bilden Daten die wichtigste Ressource. Nach Öl, Kohle und Strom treiben sie die vierte industrielle Revolution voran. Aufgrund ihrer großen Menge – auch als Big Data bezeichnet – ermöglichen die Daten im Rahmen einer prädiktiven Wartung eine geringe Stillstandzeit der Anlagen. Darüber hinaus tragen sie zu selbstoptimierenden Prozessen bei, die in einer schnelleren, effizienteren und kostengünstigeren Produktion resultieren. Bei der Verwendung der Daten ist jedoch stets auf deren Vollständigkeit und Korrektheit zu achten, da mehr Daten immer mehr Risiken mit sich bringen, und inkorrekte Daten zu falschen oder verzerrten Ergebnissen führen.

Testanlage zur Anomalieerkennung

Die beschriebenen Ideen sind schon in einer Testanlage zur Anomalieerkennung von Pumpen erprobt worden. Dort wurde die Verschiebung einer Pumpe aus ihrer Achse entweder durch einen Hebel oder durch eine Verstopfung mit Hilfe eines Proportionalventils simuliert. Die eingesammelten Daten lassen sich zum Training verschiedener Machine-Learning-Modelle einsetzen.

Die Untersuchung beschäftigte sich damit, inwiefern neuronale Netze, Variational Autoencoder und Isolation Forest die beiden simulierten Anomalien erkennen. Die Verstopfung wurde sowohl mit dem Isolation Forest als auch dem neuronalen Netz mit einer mehr als 95-prozentigen Sicherheit und einer Fehleralarmrate von weniger als fünf Prozent festgestellt – und das mit den bereits vorhandenen Druck- und Durchflusssensoren. Beide Modelle bilden somit eine gute Grundlage für die prädiktive Wartung, denn sie können Fehler in den Daten detektieren. Zum Erkennen der Verschiebung ist jedoch die Installation neuer Sensoren notwendig, um zuverlässige Ergebnisse erhalten zu können.

Ferner wurde die Erkennung von Dampflecks auf Pipelines erforscht. Zu diesem Zweck ist ein Convolutional Neural Network (CNN) auf bestehenden Videos von Überwachungskameras trainiert worden. Im Ergebnis stellt das CNN die Lecks live fest.

Fazit: Dem Machine Learning kommt in der Prozessindustrie eine wachsende Bedeutung zu. Dies, weil das Verfahren viele Möglichkeiten bietet, die sich schon in der Praxis bewährt haben. Für Anlagenbetreiber erweist es sich daher als wichtig, sich mit dem Thema auseinanderzusetzen, damit die sich ergebenden Chancen genutzt werden können. Die bei der Umsetzung auftretenden Herausforderungen sind dabei nicht außer Acht zu lassen.

Dieser Artikel stammt von unserem Partnerportal PROCESS.

(ID:49746213)