Interview mit Vincent Rüsike, TIQ Solutions So gelingt der Weg in die intelligente Produktion
Anbieter zum Thema
Produzierende Unternehmen stehen vor komplexen Herausforderungen. Neben Schnelligkeit und Qualität steht vor allem die Produktivität im Vordergrund. Welchen Stellenwert nehmen dabei Produktionsdaten ein und wie werden aus Daten valide Informationen gewonnen? Welches Vorgehen und Know-how benötigt die Fertigung hin zu einer intelligenten Produktion? Vincent Rüsike, Consultant Data Science mit Schwerpunkt auf die Industrie, gibt aufschlussreiche Antworten.

BigData-Insider: Herr Rüsike, bevor wir über ein Vorgehen in die intelligente Produktion sprechen, welche aktuellen Herausforderungen sehen Sie aktuell in der Produktion bzw. Fertigung?
Rüsike: Produzierende Unternehmen stehen unter Druck. Neben kürzeren Produktlebenszyklen mit der zunehmenden Produktindividualisierung und der Nachfrage nach kürzeren Lieferzeiten stellen auch steigende Anlagenkomplexität und hohe Ausfall- und Ausfallfolgekosten Herausforderungen dar. Daraus ergeben sich neue Anforderungen an die Produktion. Intelligent, effizient, zuverlässig und flexibel muss sie sein.
Digitalisierung und Vernetzung bilden hier die Grundlage, um die Produktion an diese Herausforderungen anzupassen. Hier nehmen die Daten die Rolle des kritischen Erfolgsfaktors ein. Werden Produktionsdaten intelligent zusammengeführt und analysiert, können Erkenntnisse zur Optimierung von Produktionsprozessen, Vorhersage von Maschinenausfällen, Produktionsqualität und zur Effizienzsteigerung gewonnen werden.
Als Datenbasis dienen Daten aus dem Produktionsumfeld, wie Maschinen-, Sensorik- und Produktionsdaten, aber auch Daten aus anderen Unternehmensbereichen sowie externe Daten. Sie ermöglichen neue belastbare Darstellungen und Bewertung von Zusammenhängen über bisher kaum transparente produktionsübergreifende Abläufe in Unternehmen. Wir fassen diesen Prozess als Industrial Analytics zusammen.
Können Sie Beispiele für Daten nennen, die Anwender auswerten sollten?
Rüsike: Ein guter Ansatz ist das Ishikawa-Diagramm: Es zeigt – traditionell für die rückblickende Fehlerauswertung – welche Einflussfaktoren auf einen Prozess einwirken. In der vorausschauenden Wartung kann man sich dieses Werkzeug für eine erste Betrachtung zunutze machen. Angefangen bei der Maschine selbst können deren Zustände durch Steuerungsdaten oder Sensorik erfasst werden. Auch das Milieu, also die Umweltbedingungen, können einen Einfluss auf einen Produktionsprozess haben, etwa eine hohe Luftfeuchtigkeit, die das Papier in einer Druckerei wellig werden lässt, oder hohe Temperaturen, die wiederum Einfluss auf die Beschaffenheit eines Materials haben.
Anders als in der manuellen Auswertung findet die Suche der Zusammenhänge der verschiedenen Einflussfaktoren mithilfe von Machine Learning als automatisiertem Prozess statt. Dadurch werden Korrelationen und Kausalitäten zwischen unterschiedlichsten Einflussfaktoren aufgezeigt. Im Rahmen der Feature Engineering genannten Vorbearbeitung werden weitere Faktoren abgeleitet, die in das Prognosemodell einfließen. Beispielsweise kann an einem Elektromotor die Häufigkeit einer Lastspitze eine höhere Aussagekraft haben als der Wert an sich.
Wie können dabei die Datenquellen identifiziert und die Daten nutzbar gemacht werden? Welche Rahmenbedingungen sind dabei noch zu beachten?
Rüsike: Als erstes sollte überprüft werden, welche Anlagen Daten abwerfen, zum Beispiel durch interne Sensoren oder aus Betriebsparametern. Fehlen solche Informationen, können sie auch z. B. im Rahmen eines Retrofits nachgerüstet werden. Die anfallenden Daten müssen im nächsten Schritt sinnvoll gespeichert werden, um damit arbeiten zu können. Doch es ist nicht nur wichtig, die Rahmenbedingungen und Maschinen in der Fertigung selbst zu identifizieren, sondern auch die Vernetzung zwischen den Abteilungen. Wenn die Daten nur in einer Einheit bleiben, können Zusammenhänge zwischen Maschinen und innerhalb umfangreicherer Prozesse nicht erkannt werden.
Welche weiteren Faktoren spielen bei der Umsetzung eine wichtige Rolle?
Rüsike: Wenn klar ist, wie datengetrieben das Unternehmen bereits ist, sollte im nächsten Schritt der Umfang der Datenhaltung und -verarbeitung festgelegt werden. Die Infrastruktur sollte frühzeitig auf Skalierbarkeit ausgelegt werden, um auf wachsende Anforderungen an Datenvolumen und -geschwindigkeit reagieren zu können. Ist dies nicht im Vorfeld geklärt, kann das ganze Projekt unnötig in die Länge gezogen werden und Ressourcen binden.
Maßgeblich für den Erfolg der Digitalisierung sind aber die Mitarbeiter. Die Maßnahmen der Datenerfassung und Auswertung dienen neben offensichtlichen Absichten der Optimierung auch der Arbeitserleichterung der Mitarbeiter. Nur mit dem Fachwissen der Mitarbeiter ist eine erfolgreiche Umsetzung überhaupt erst möglich. Solche Schritte der Digitalisierung sollten deshalb gemeinsam mit den Mitarbeitern erarbeitet und klar kommuniziert werden. Die Mitarbeiter sind für die Akzeptanz solcher neuen Strategien essenziell, denn mit ihnen steht und fällt die Umsetzung.
Die Bedenken und Sorgen der Mitarbeiter müssen deshalb ernst genommen werden. Oft fürchten Angestellte um ihre Arbeitsplätze, dabei ist Industrial Analytics für sie lediglich ein Hilfsmittel und kein Ersatz für qualifizierte Angestellte. Also ist es wichtig, die Mitarbeiter bei der Erarbeitung der Fragestellung schon mit einzubeziehen.
Und wie wird das Ziel definiert und eine gute Fragestellung formuliert?
Rüsike:Welches Ziel mithilfe der Daten erreicht werden soll, sollte klar sein bevor die Analysen beginnen. Deshalb muss das Ziel gemeinsam mit allen beteiligten Gruppen erarbeitet werden. Von dieser Fachfrage ausgehend folgt dann der Brückenschlag zur Analysefrage: Das Problem muss von den Data Scientists aufgearbeitet werden, um die Analysefrage zu formulieren. Dann erst erfolgt die eigentliche Modellbildung auf Grundlage der Daten mithilfe von statistischen Tests und Machine-Learning-Algorithmen.
Wie wäre dann das weitere Vorgehen im Industrial-Analytics-Prozess? Gibt es einen standardisierten Prozess?
Rüsike: Es gibt für die Datenanalyse oft genutzte Herangehensweisen für einen ersten Einblick in die Daten. So wird meistens mithilfe von Python-Skripten eine erste Datenexploration und -visualisierung vorgenommen. Wir orientieren uns generell am CRISP-DM-Modell (CRoss-Industry Standard Process for Data Mining), welches das iterative und agile Vorgehen am besten abbildet. Aber für jede Fragestellung gibt es eine individuelle Lösung, die nicht universell einsetzbar ist. Es gibt sehr viele verschiedene statistische Tests und Machine-Learning-Algorithmen. Wir bevorzugen robuste Lösungen, die mit Ausreißern und fehlenden Daten umgehen können, anstatt zu komplexe Ansätze zu wählen.
Beispielsweise werden künstliche neuronale Netze oft als magische Lösung für viele Problemstellungen wahrgenommen, sind aber deshalb nicht immer besser geeignet als klassischere Ansätze – das hängt immer von der konkreten Frage ab. Eine Schwierigkeit mit neuronalen Netzen ist außerdem die Nachvollziehbarkeit des Ergebnisses für Anwender. Es ist oft nicht mehr möglich, den Entscheidungsweg des Algorithmus zu erkennen, was das Vertrauen in die Güte beeinflussen kann.
Ausblickfrage: Wie wird sich die Produktion in den nächsten Jahren weiter verändern?
Rüsike: Die Produktion wird ganz allgemein deutlich stärker datengetrieben sein. Das heißt, nicht nur Material- und Energieströme spielen eine Rolle, sondern zunehmend auch der Informationsfluss innerhalb der Fertigung und darüber hinaus. Die treibenden Kräfte sind aus unserer Sicht die immer höheren Anforderungen an die Flexibilität der Produktion, durch Just-in-Time-Prozesse und Losgröße 1, sowie die Transparenz – durch den Markt oder regulatorische Anforderungen.
Damit das hierfür notwendige Zusammenwachsen von Produktion und IT funktioniert, ist es wichtig, dass Schnittstellen und Datenformate vereinheitlicht werden. Ein wichtiger Standard ist OPC-UA for Machinery, der Informationen einheitlich für Statusmonitoring verfügbar macht. So kann zum Beispiel eine Übersicht über Betriebszustände, bearbeitete Werkstücke, genutzte Werkzeuge oder die Berechnung anderer Kennzahlen einfach erstellt werden. Federated Learning ist daneben ein neues Paradigma in der industriellen KI. Die Idee dahinter ist, dass das Training eines Algorithmus auf Geräten an verschiedenen Standorten verteilt wird und erst das Gesamtergebnis zusammengeführt wird. Da jedes Edge-Gerät nur auf seinen lokalen Daten trainiert wird und zwischen ihnen kein Austausch stattfindet, ermöglicht das Verfahren, dass verschiedene Akteure, auch Wettbewerber, gemeinsam ein Modell trainieren.
Ziel der nächsten Jahre wird es also sein, den Zugang zu produktionsrelevanten Daten zu vereinheitlichen, um einerseits eine verbesserte Interoperabilität, aber auch die Analyse und Optimierung von Produktionsprozessen voranzutreiben.
Artikelfiles und Artikellinks
Link: TIQ Solutions im Web
(ID:47007524)