Suchen

Ratschläge von NetApp Fünf Schritte zum erfolgreichen IoT-Projekt

| Autor / Redakteur: Martin Hensel / Nico Litzel

Die Einführung eines IoT-Projekts ist oft unübersichtlich. Stefan Ebener, Strategy & Innovation Manager von NetApp, erläutert die fünf Phasen, die für eine erfolgreiche Umsetzung nötig sind.

Firmen zum Thema

Stefan Ebener, Strategy & Innovation Manager von NetApp
Stefan Ebener, Strategy & Innovation Manager von NetApp
(Bild: NetApp)

Bei der IoT-Einführung gibt es etliche Stolpersteine: Von Sensoren über die Data-Management-Plattform bis hin zu Analytics-Software und den Sicherheitsmaßnahmen gibt es etliches zu beachten. Dennoch lässt sich ein solches Projekt schematisch in fünf Phasen gliedern, wie Stefan Ebener von NetApp erklärt.

Daten sammeln

Zunächst geht es in der „Collect“-Phase darum, Sensordaten zu erfassen und transportfähig zu machen. Dabei gibt es unterschiedliche Herangehensweisen: So kann beispielsweise ein Edge Gateway die Daten älterer Maschinen übersetzen und weiterleiten. Eine andere Möglichkeit wären Systeme, die über Webcams Lampen- oder Schaltersignale filmen, mittels künstlicher Intelligenz in IP-Informationen übersetzen und dann zur Auswertung weitergeben. Oder es wird ohnehin in neue, IP-fähige Maschinen investiert.

Daten übertragen

Es folgt die „Transport“-Phase: Dabei werden die Daten sicher und zuverlässig von den Produktionsmaschinen oder Geräten zum Rechenzentrum übermittelt. Zuvor muss aus über 50 Protokollen für die Sensordatenkommunikation das passende ausgewählt werden. Trotz des Fehlens einheitlicher Standards hat sich das offene Protokoll MQTT („Message Queue Telemetry Transport“) weitgehend durchgesetzt. Danach steht die „Store“-Phase an, in der die Sensordaten gespeichert und für die Analyse bereitgestellt werden. Ist Hadoop im Einsatz, sind leistungsstarke Storage-Lösungen gefragt. Als Speicher im Edge Computing kommen dagegen SSDs zum Einsatz. Stream Analytics sind auf schnelle Flash-Speicherlösungen angewiesen. Ein skalierbares Cloud-Speichersystem erleichtert die Aufbewahrung großer Datenmengen im zentralen Data Lake. Außerdem ist ein Datenmanagement-Betriebssystem nötig, um Daten zwischen den Speicherlösungen zu verschieben oder zu spiegeln.

Daten analysieren

In der „Analyze“-Phase geht es an die Analyse der Sensordaten. Für die Verarbeitung großer Mengen an strukturierten und unstrukturierten Daten eigenen sich beispielsweise Hadoop und NoSQL-Datenbanken wie Couchbase, MongoDB oder Cassandra. Die Echtzeitanalyse kann unter anderem über SAP HANA oder SAP Business Objects erfolgen. Ergebnisse lassen sich zusätzlich mit einem ERP-System verknüpfen. Den Abschluss bildet danach die „Archive“-Phase. Sie umfasst die kosteneffiziente Langzeitarchivierung der Sensordaten. Eine regelbasierte, automatisierte Datenklassifizierung sorgt dafür, dass Daten nach der gesetzlichen Vorhaltezeit automatisch gelöscht werden. Storage Tiering sorgt dafür, dass die Informationen immer auf dem jeweils optimal geeigneten Speichermedium bereitstehen. Auch die Datenarchivierung in der Cloud ist hierbei ein Thema.

(ID:44852725)