Industrial Data Intelligence Daten werden zum Produktionsfaktor
Daten sind das Öl des 21. Jahrhunderts. Zusätzlich zu Boden, Kapital und Arbeitskraft werden sie zunehmend zum Produktionsfaktor. Industriefirmen verbinden sich mit IT-Firmen und verknüpfen gemeinsam IT und Automatisierung zum (Industrial) Internet of Things / Industrie 4.0. Dabei ist die Herrschaft der Daten die eigentliche industrielle Revolution, die gerade stattfindet.
Anbieter zum Thema

Seit dem ersten programmierbaren Chip – dem Intel 4004, der 1971 auf den Markt kam – gehen Softwareunternehmen nach dem gleichen Schema vor: Zuerst definieren sie das Problem, dann bestimmen sie die zu erreichenden Ziele und legen die notwendigen Arbeitsschritte fest. Schließlich schreiben sie die Anwendung als eine Reihenfolge von Algorithmen. In der Praxis werden die Algorithmen mit Daten gefüttert und Anwender treffen auf deren Basis Entscheidungen.
Mittlerweile ändert sich diese Vorgehensweise strukturell: Im ersten Schritt werden die Daten gesammelt und im zweiten Schritt mittels allgemeingültiger Algorithmen für Data Mining, Analytics oder vorausschauende Wartung analysiert. Auf Basis der daraus resultierenden Kausalitäten werden heute Entscheidungen zur Produktionsoptimierung getroffen. Morgen werden uns die Algorithmen bestimmte Entscheidungen zur Produktionsoptimierung selbstständig abnehmen.
Datenbasierte Optimierung der Gesamtanlageneffektivität
Optimierung bedeutet in den meisten Anwendungsfällen eine Verbesserung der Gesamtanlageneffektivität (GAE). Dabei ist das Ziel – die gesamtheitliche Verbesserung von Verfügbarkeit, Leistung und Qualität – nicht neu. Neu ist der datenbasierte Ansatz mittels maschinellen Lern-Algorithmen. Die Menge, Geschwindigkeit und Vielfältigkeit der heute anfallenden Daten übersteigt die Fähigkeiten des Bedienpersonals und verlangt nach neuen datenbasierten Ansätzen.
Ein repräsentativer Anwendungsfall ist die vorausschauende Wartung, die darauf abzielt, den großen Teil der nicht-altersbedingten Ausfälle zu reduzieren und somit die Anlagenleistung zu erhöhen. Anstelle der heute flächendeckend eingesetzten reaktiven oder vorbeugenden Wartung, bei der fest eingeplante Wartungszeiten das Leistungspotenzial der Anlage drücken, sagen maschinelle Lern-Algorithmen den Ausfall konkreter Anlagenteile voraus. Das ermöglicht eine bedarfsgerechte Wartung spezifischer Teile zu produktionsfreien Zeiten, bevor es zum Ausfall kommt.
Bei der klassischen Reihenfolge „Algorithmus – Daten – Entscheidung“ kann die GAE nicht besser sein als der Mensch, der sie programmiert hat. Algorithmen des maschinellen Lernens, angewendet auf große Mengen Produktionsdaten, können dagegen Kausalitäten finden, welche die GAE verbessern und dem Anlagenbetreiber bis dato verborgen waren.
Bestimmen, Sammeln, Analysieren, Entscheiden, Implementieren
Am Anfang eines Analytics-Projektes wird das Optimierungspotenzial der Anlage oder der Maschine und somit der kommerzielle Wert der Daten als Teil des allgemeinen Geschäftsverständnisses bestimmt. Dann folgen die Festlegung der Projektziele und -anforderungen und die Ableitung der konkreten Aufgabenstellung und Vorgehensweise. In der Sammel-Phase werden Daten – roh oder aufbereitet – aus Automatisierungskomponenten und Feldgeräten wie SPSen, Sensoren, Aktoren, Feldbussen (PROFIBUS, PROFINET), OPC UA-Informationsmodellen und Datenbanken sowie aus zusätzlichen Quellen, wie z. B. Produktionsfluss- oder Wetterdaten erfasst.
Anschließend werden die Daten in einem „Industrial Extract-Transform-Load“ (ETL)-Prozess aufbereitet. Ausreißer werden gelöscht, Fehleinträge eliminiert, Zeitstempel abgeglichen, Metadaten zugefügt, die bereinigten Daten formatiert und für die spätere Analyse in eine persistente Speicherform (Dateien, NoSQL, SQL, Cloud, Cluster) überführt.
In der Analyse-Phase werden die Daten aufbereitet, modelliert und analysiert. Bei der Datenanalyse geht es im ersten Schritt darum, ein Modell zu erstellen. Dieses repräsentiert relevante Muster, Beziehungen und Gesetzmäßigkeiten aus der vorhandenen Situation und wird, wenn möglich, durch Fakten aus gegebenen Sachverhalten ergänzt und auf seine Fähigkeit getestet.
Anschließend erfolgt die Umsetzung mit echten Daten aus der Praxis mit dem Ziel, eine (meist ungewollte) Situation vorauszusagen (Anomalie-Erkennung). In der Entscheidungsphase wird ein auf dem Geschäftsverständnis basierendes, individuelles Konzept entwickelt. Dies beinhaltet Sicherheit, Datenübertragung, Bandbreite, Verteilung, sowie Speicherung der Daten. In der Implementierungsphase werden das Akquise-System, die Anbindung von Datenbanken und weiteren Produkten, die Datenlogistik, der Industrial-ETL-Prozess, die Wartung und der Support bereitgestellt.
Nachdem die Lösung beim Kunden implementiert ist, bewegt sich die eigentliche Arbeit in einer fortdauernden Schleife von Datensammlung und -analyse über das Treffen von Entscheidungen zur Implementierung und wieder zurück.
Maschinelles Lernen
Ohne Algorithmen des maschinellen Lernens würden schon heute wichtige Teile unserer Geschäftswelt oder Konsumentenwelt stillstehen. Es sind solche Algorithmen, die beispielsweise innerhalb von Millisekunden entscheiden, ob ein Kunde am Automaten Geld ausbezahlt bekommt oder die in den sozialen Medien die Gesichter unserer Freunde erkennen oder uns dem Smartphone Aufgaben stellen lassen und demnächst für das autonome Fahren zuständig sein werden. Es sind dieselben Algorithmen, die uns sagen können, wie und wo wir unsere Produktion optimieren können, solange wir sie mit den dafür relevanten Daten füttern.
:quality(80)/images.vogel.de/vogelonline/bdb/1055500/1055538/original.jpg)
Machine Learning
So bereitet Machine Learning Big Data auf
Im letzten Fall geht es darum, auf Basis von Daten einer normal funktionierenden Maschine oder Anlage zu erkennen, was bisher nicht eingetroffen ist, nämlich ein Störungsfall. Im ersten Schritt werden auf Basis bereinigter Daten Korrelationsgrafiken produziert. Diese lassen sozusagen die Daten für sich sprechen und zeigen dem Menschen, ob und zwischen welchen Daten es eine Korrelation gibt und wie diese aussieht.
Im zweiten Schritt werden Daten der normal funktionierenden Anlage benutzt, um ein Modell mit Grenzwerten zu trainieren. Sobald das Modell in Zukunft mit abweichenden Daten gefüttert wird, die fehlerhafte Baugruppen, Maschinen oder Prozesse repräsentierenden, schlägt es Alarm. Maschinelles Lernen ist keine Magie. Aber die Fähigkeit von Algorithmen, in großen Datenmengen Korrelationen zu finden, übersteigt die des Menschen und ermöglicht die datenbasierte Produktionsoptimierung.
Anlagendaten, die auch in der Vergangenheit schon oft gesammelt aber nicht verarbeitet wurden können heute eingesetzt werden, um unerwünschte Situationen wie z. B. Störungen vorherzusehen. Was geht da genau vor? Anders als bei klassischen Applikationen nimmt das maschinelle Lernen seine Lösung nicht direkt aus dem von Menschen geschriebenen Software-Code. Vielmehr suchen Algorithmen in Daten ein vermeintliches Muster.
Das Wesen des maschinellen Lernens ist, dass ein Muster existiert – in unserem Fall eine Kausalität zwischen Baugruppenzuständen und physikalischen Messwerten – welches wir nicht mathematisch festhalten können aber welches durch Algorithmen auf Basis von Daten gefunden werden kann. Dabei kann man die Algorithmen mit Lösungskategorien füttern und den Algorithmus beauftragen, zu entscheiden, welche Kategorie zukünftige Daten repräsentieren sollen („supervised learning“). Alternativ überlässt man es dem Algorithmus, selbst Muster oder Cluster zu finden, die dem Mensch bis dato nicht bekannt waren („unsupervised learning“).
Offen oder Geschlossen? Cloud oder Edge?
Analytics-Lösungen, ob für den geschäftlichen oder industriellen Einsatz, gibt es sowohl von den großen Enterprise- als auch von Open-Source-Anbietern wie Konstanz Information Miner (KNIME) oder Rapidminer. Dabei bietet der Open-Source-Ansatz gegenüber geschlossenen Lösungen den Vorteil der Offenheit sowie geringerer Abhängigkeit.
Trotz intensiver Bemühungen von Anbietern und Organisationen haben viele Entscheidungsträger ein mulmiges Gefühl bei der Idee, ihre Produktionsdaten nach draußen zu geben. Daher wundert es nicht, dass eine Mehrheit der Kunden in den Bereichen Maschinenbau und Produktion eine Industrial-Data-Intelligence-Lösung in der Anlage gegenüber einer Cloud-Lösung präferiert. Mit einer „Edge“-Lösung, also in der Anlage bzw. an der Maschine, an der die Daten anfallen, auf einem Standard-Echtzeit-Datenanalyse-IPC, lässt sich das Thema Sicherheit minimalisieren. Die Cloud-Lösung dagegen ermöglicht den einfachen Vergleich mehrerer Anlagen und Standorte auf Basis der (vorverarbeiteten und dadurch geringeren Menge an) Daten und ebnet den Weg zu neuen Cloud-basierten Geschäftsmodellen.
* Peter Seeberg ist Business Development Manager Industrial Data Intelligence bei Softing Industrial Automation
(ID:44290809)