Suchen

Embedded Analytics für Maschinendaten Wie Echtzeitanalysen den Kundenservice verbessern

Autor / Redakteur: Christoph Epping / Nico Litzel

BD Rowa zählt weltweit zu den führenden Herstellern von Kommissioniersystemen für Medikamente. Die empfindliche Ware macht eine laufende Überwachung der komplexen Anlagen sowie eine schnelle Fehlerbehebung unerlässlich. Deshalb stellt das Unternehmen seine Support-Infrastruktur von einem veralteten VPN-Netzwerk auf eine zentrale Embedded-Analytics-Lösung um. Der cloudbasierte Ansatz ermöglicht eine Analyse der Maschinendaten in Echtzeit und damit eine deutliche Verbesserung des Kundenservices.

Firmen zum Thema

Der Autor: Christoph Epping ist Consultant bei Oraylis
Der Autor: Christoph Epping ist Consultant bei Oraylis
(Bild: www.photalo.de)

Der Erfolg einer Analytics-Plattform hängt stark von deren Performance und Nutzerfreundlichkeit ab. Daher erfreuen sich Embedded-Analytics-Lösungen so großer Beliebtheit. Sie ermöglichen es, „Big Data“ aus dem IoT-Bereich nahezu in Echtzeit für Analysen in der gewohnten Arbeitsumgebung des Anwenders bereitzustellen. Den Einsatzgebieten sind dabei kaum Grenzen gesetzt. Das zeigt das Beispiel von BD Rowa, führender Hersteller von automatischen Warenlagern zur Kommissionierung von Medikamenten in Apotheken, Krankenhäusern und andere Gesundheitseinrichtungen.

Der Maschinenbauer stellt gegenwärtig den Support für seine hochkomplexen Anlagen mittels Embedded Analytics vollkommen neu auf. Noch befindet sich die Lösung in der Pilotphase. Künftig werden von über 9.000 Maschinen weltweit laufend Statusinformationen und Detaildaten an eine zentrale Stelle geleitet, mit Stammdaten kombiniert und den Servicemitarbeitern in einem eigenen Portal zur Verfügung gestellt. Mit der webbasierten Applikation können die Nutzer nicht nur den Zustand der Maschinen überwachen und Fehler unmittelbar erkennen. Sie haben auch die Möglichkeit, direkt über die App auf einzelne Maschinen zuzugreifen, beispielsweise um Wartungstätigkeiten vorzunehmen oder Probleme zu beheben.

Auf diese Weise kann der Hersteller seinen Kunden einen individuellen und sehr effizienten Support bieten. Allerdings ist der Aufbau einer entsprechenden Plattform in technologischer Hinsicht mit einigen Herausforderungen verbunden. Keine Anlage gleicht der anderen. Jede Maschine wird individuell für den jeweiligen Kunden konfiguriert. Gleichzeitig produzieren die Anlagen ganz unterschiedliche Daten, angefangen bei Fehlermeldungen über Bewegungsdaten bis hin zu Videos. Nicht zuletzt gilt es, die Daten – abhängig von ihrer Art und Nutzung – kontinuierlich, eventbasiert oder auch in definierten Zeitintervallen zu liefern. Werfen wir also einen Blick „unter die Motorhaube“ dieser Embedded-Analytics-Lösung.

Technischer Aufbau der Lösung

Die Kommissionierautomaten erzeugen ihre Daten mittels verschiedener Sensoren und Kameras. Es handelt sich beispielsweise um Messwerte zur Temperatur in den Kühleinheiten oder Informationen über die Fahrwege der integrierten Greifarme. Hinzu kommen Basisinformationen, die auf den Maschinen selbst hinterlegt sind, wie etwa die Abmessung und Konfiguration. Alle diese Daten werden an eine digitale Plattform in der Cloud gesendet, die die Basis der Gesamtlösung bildet (siehe Abbildung). Das Unternehmen setzt in diesem Zusammenhang vollständig auf Komponenten der Microsoft Azure Cloud. Die Gründe für diese Wahl sind vielfältig: Die lokale Infrastruktur basierte bereits auf Microsoft-Technologien und ließ sich somit verhältnismäßig einfach anbinden. Gleichzeitig mussten sich die Mitarbeiter nicht an eine gänzlich neue Arbeitsumgebung gewöhnen. Auch die Bedienung und Konfiguration über die Verwaltungsoberfläche wurde als besonders nutzerfreundlich bewertet. Darüber hinaus sprach für diese Cloud-Variante die Ausrichtung auf Business-Anwendungen, die beispielweise mit der Azure Active Directory eine mehrstufige Authentifizierung zum Schutz gegen Cyberangriffe bietet.

Die Lösung liegt vollständig in der Cloud. Neben den Maschinen ist lediglich das unternehmenseigene CRM „On-Premises“ angebunden, um zusätzliche Stammdaten zu liefern.
Die Lösung liegt vollständig in der Cloud. Neben den Maschinen ist lediglich das unternehmenseigene CRM „On-Premises“ angebunden, um zusätzliche Stammdaten zu liefern.
(Bild: Oraylis)

Beim Lösungsaufbau in der Cloud fungiert ein IoT Hub als Middleware, die die Daten entgegennimmt und anhand von Routing-Parametern entscheidet, welche Folgeschritte durchzuführen sind. Das kann die Weiterleitung zu einer API sein, die Ablage im Blob Storage oder auch die direkte Information eines Supportmitarbeiters bzw. Kunden. Dabei lassen sich auch mehrere Folgeschritte gleichzeitig ausführen. Zudem hält der IoT Hub für jede Maschine einen „Digital Twin“ vor – sprich: eine Sicherungskopie mit allen Informationen zur realen Maschine.

Daneben besteht über „Desired Properties“ die Möglichkeit, Konfigurationswerte zurück zu übertragen, wobei die Maschine den Änderungswunsch selbst entgegennimmt und daraufhin ihre Eigenschaften aktualisiert. Infolgedessen übernimmt eine Maschine – wenn sie zum Zeitpunkt einer Änderung offline ist – auch nach einem Neustart automatisch neue Konfigurationen aus der Cloud.

Schließlich lässt sich über den IoT Hub auch der direkte Rückkanal zu den einzelnen Maschinen abbilden, auf dessen Funktion später noch näher eingegangen wird. Indes dient der Blob Storage der Datenablage. So ist sichergestellt, dass die Daten auch zur Verfügung stehen, wenn keine Verbindung zu den Anlagen beim Kunden vor Ort besteht. Gleichzeitig gibt es eine zentrale Quelle, auf die jeder Supportmitarbeiter zugreifen kann, ohne eine direkte Verbindung zu den Anlagen herstellen zu müssen. Abgerundet wird der Lösungsaufbau durch die Anbindung des unternehmenseigenen CRMs. Denn: Meist müssen die Streaming-Daten noch durch Stammdaten angereichert werden, damit sie verständlich sind und die erforderliche Aussagekraft erhalten.

Übertragung der Daten

Je nach Bedarf erfolgt der Datenversand von den Maschinen zeitgesteuert, eventbasiert oder kontinuierlich. Unter die erste Kategorie fallen vor allem die Stammdaten der Maschinen, wie Konfiguration, Ausbaustufe oder kumulierte Statistiken. Diese werden nächtlich erstellt und jeden Tag einmal übertragen. Ein eventbasierter Versand erfolgt primär bei Fehlern. Das können herkömmliche Benachrichtigungen über das System sein. Es kann sich aber auch um Logfile-Listen rund um einen Fehler handeln. Der Anwender hat hierbei die Möglichkeit, über einen Rückkanal den Upload einzelner Dateien von der Maschine in die Cloud anzustoßen und diese zur weiteren Prüfung herunterzuladen. Auf diese Weise wird der Datendurchsatz auf einem beherrschbaren Maß gehalten. Würde beispielsweise stets die gesamte Logfile-Historie versendet, dann könnte dies zumindest bei schlechteren Internetverbindungen zu Performance-Engpässen führen.

Eine kontinuierliche Übertragung erfolgt schließlich bei kritischen Daten, wie zum Beispiel den Temperaturen der Kühlschränke. Das System gleicht den entsprechenden Datenfluss laufend mit den gesetzlichen Grenzwerten ab. Abweichungen lösen umgehend eine Benachrichtigung aus, sodass direkt gehandelt werden kann. Zudem stehen die Daten in der „Embedded“ Web-App zur Verfügung. Dadurch sind auch historische Betrachtungen möglich. Im Gegenzug können sich einzelne Supportmitarbeiter über die kontinuierliche Verbindung auch live auf die Maschinen aufschalten. Hierzu stellt der IoT Hub eine gesicherte Verbindung zwischen der Maschine und dem betreffenden Rechner her. In der Folge erhält der Nutzer den Zugriff auf den integrierten Computer wie auch die an den Greifarmen installierten Kameras.

Diese Form der Datenübertragung hat verschiedene Vorteile. Da ist zum einen die Geschwindigkeit: Bereits wenige Sekunden, nach dem die IoT-Daten der Maschinen an den Hub übergeben wurden, liegen sie in dem Web-Portal vor. Zum anderen kann die Lösung mit unterschiedlichen Datenformaten umgehen. Das Spektrum reicht von Textnachrichten bis zu Binärdaten. Falls erforderlich, kann das Datenformat zu einem späteren Zeitpunkt mit geringem Aufwand ausgetauscht werden.

Aufbereitung und Analyse der Daten

Wie aber werden die eintreffenden Daten nun für die Web-Applikation der Support-Mitarbeiter bereitgestellt? Kern bildet eine selbstentwickelte Schnittstelle bzw. API, die die Daten bedarfsgerecht aufbereitet. Meist handelt es sich um JSON- bzw. Text-Formate, die von der API zerlegt, aufgeteilt und in einer Datenbank für die weitere Verwendung in der Web-App zur Verfügung stehen. Die Daten liegen normalisiert vor und bestehen in großen Teilen aus fest definierten Strukturen mit Abhängigkeiten untereinander. Daher handelt es sich um ein relationales Datenbankmodell. Teilweise werden die Daten auch historisiert – konkret: wenn dafür innerhalb der App der Bedarf besteht. Hierzu zählen beispielsweise die Fehlermeldungen.

Ebenso differenziert die Schnittstelle zwischen den Echtzeitdaten sowie den Stammdaten der Maschine. Zu den Stammdaten gehören beispielsweise die Maschinen-ID und der Maschinentyp. Die API reichert diese um weitere Stammdaten aus dem CRM an, wie zum Beispiel der Kundennummer und dem Installationsdatum. Somit werden sämtliche eintreffenden Daten für die unmittelbare Nutzung in der Embedded-Analytics-Lösung optimiert. In der Folge können die Support-Mitarbeiter auf diesen Daten manuelle Analysen zu Fragestellungen vornehmen, die aus Fehlermeldungen, Kundenanfragen oder Auffälligkeiten in Berichten resultieren. Zusätzlich speichert das System die vollständigen Rohdaten ohne strukturelle Vorgaben im Blob Storage ab. Dieser Datenbestand dient vor allem den Data Scientists des Unternehmens für explorative Analysen. Gleichzeitig bleibt das gesamte Material für mögliche Weiterentwicklungen und künftige Anwendungsfälle erhalten.

Für die vollständige Aufbereitung und Nutzung historisierter Daten beinhaltet die Gesamtlösung indes ein BI-System mit einer klassischen ETL-Strecke. Hier werden die Rohdaten über mehrere Schichten aufbereitet und mittels eines spaltenbasierten OLAP-Cubes als Power-BI-Berichte in der Support-App bereitgestellt. Die Berichte liefern den Support-Mitarbeitern beispielsweise Informationen und Kennzahlen zur Kapazität, Auslastung und Erreichbarkeit der Maschinen.

Hinzu kommen Fehlerberichte beispielsweise zu Updates, Fahrbewegungen der Greifarmen, oder auch Fehlerhäufigkeiten. Da es sich um interaktive Berichte handelt, können die Mitarbeiter zu allen dargestellten Informationen auch vertiefende Ad-hoc-Analysen vornehmen. Neben den Support-Mitarbeitern haben auch die Data Scientists einen direkten Zugriff auf die konsolidierten Daten des BI-Systems. Entsprechend steht ihnen umfassendes Material zur Verfügung, um neue Muster und Zusammenhänge aufzudecken. So sind mithilfe der vorhandenen Datenbasis künftig auch Prognoseszenarien aus dem Bereich „Predictive Maintenance“ geplant.

Vorteile der neuen Lösung

Die Web-Applikation bietet den Service-Mitarbeitern nunmehr ganz neue Möglichkeiten der Kundenbetreuung. Hervorzuheben ist vor allem die Verfügbarkeit von Echtzeitdaten und die daraus resultierende Verbesserung der Reaktionszeiten. Denn: Bei der bisherigen Lösung versenden die Maschinen ihre Daten mit hoher Latenz per VPN-Verbindung an zentrale Hardware-Server. Dort werden die Daten gesammelt und im Rahmen einer vollständigen ETL-Strecke zu definierten Zeitpunkten aufbereitet. Treffen die Daten kurz nach diesem Termin ein, kommt es zu weiteren, teils beträchtlichen Verzögerungen. So sind „aktuelle“ Berichte mitunter bereits zwei bis drei Tage alt, wenn sie die Servicemitarbeiter erreichen. Das hat auch zur Folge, dass der Kunde bei einem Maschinenfehler meist aktiv auf den Support zugehen und bereits alle verfügbaren Informationen vorhalten muss. Erst daraufhin schaltet sich der Mitarbeiter auf die Maschine auf, um mit der konkreten Fehlersuche zu beginnen.

Künftig lassen sich Fehler dank des kontinuierlichen Datenstroms sowie eventbasierter Benachrichtigungen frühzeitig erkennen und – beispielsweise über den Rückkanal – direkt beheben. Ebenso können Anfragen an die Hotline mithilfe der stets aktuellen App-Daten ohne große Wartezeiten beantwortet bzw. bearbeitet werden. Auch über die Live-Daten und Berichte hinaus stehen den Mitarbeitern weitaus detailgetreuere Informationen als in der Vergangenheit zur Verfügung. Erstmals sind die Videos aus dem Maschineninneren direkt mit den Fehlermeldungen verknüpft. Zudem hat der Anwender unmittelbaren Zugriff auf alle wichtigen Details zur Konfiguration und der Maschinenhistorie, etwa in Form von Grafiken, Bauplänen und Fotos. Gleichzeitig erweist sich der Datentransfer über die Cloud als deutlich stabiler gegenüber dem VPN-Netzwerk.

Der neue Ansatz wirkt sich aber nicht nur positiv auf den Kundenservice und die Performance aus. Durch den umfassenden Einsatz von Cloud-Technologien profitiert das Unternehmen von einem beträchtlichen Kostenvorteil im Vergleich zur pflegeintensiven VPN-Landschaft. Teure Hardware-Investitionen entfallen, der Aufwand für Updates und Wartung ist stark reduziert. Die Services werden nach Bedarf genutzt und bezahlt. Sie lassen sich jederzeit den aktuellen Anforderungen entsprechend skalieren. Somit gehören auch Hardware bedingte Limitierungen schlussendlich der Vergangenheit an.

Fazit

Das Beispiel macht transparent, wie eine Embedded-Analytics-Lösung durch die Verbindung von Echtzeit- und Stammdaten handfeste Mehrwerte für das Geschäft erzeugen kann – hier in Form eines umfassend verbesserten Kundensupports für hochkomplexe und individuell konfigurierte Maschinen. Moderne Cloud-Technologien ermöglichen in diesem Zusammenhang einen verhältnismäßig schnellen und kostengünstigen Aufbau der Lösung. Dabei bestehen die Kernkomponenten aus einem IoT Hub als Verteilerstelle, einem Blob Storage für die zentrale Datenablage sowie einer Datenbank, die die erforderlichen Daten für die Lösung vorhält. Zwar ist die Aufbereitung der Daten sowie deren strukturierte Ablage über die eigens entwickelte API komplexer, als wir es von klassischen BI-Lösungen kennen. Dafür haben die Verantwortlichen eine größtmögliche Flexibilität bei der bedarfsgerechten Auswahl der Daten und der Erweiterung bzw. Anpassung der Schnittstelle.

Der Cloud-Ansatz stellt zudem sicher, dass sich die Lösung auch künftig in alle Richtungen erweitern lässt. So ist neben den genannten Prognoseszenarien eine Applikation geplant, mit der der Kunde eigenständig aktuelle Maschineninformationen in aufbereiteter Form abrufen kann. Embedded Analytics wird somit auch zu einem konkreten Kundenangebot – oder anders ausgedrückt: Der Hersteller erweitert sein Angebotsportfolio und bietet in Zukunft neben Produkten auch digitale Services an.

Artikelfiles und Artikellinks

(ID:46510961)