:quality(80)/images.vogel.de/vogelonline/bdb/1816700/1816782/original.jpg)
Predictive Analytics So werden große Datenmengen für Prognosen genutzt
Aufzüge, die selbst den Techniker benachrichtigen, wenn eine Reparatur ansteht. Polizeistreifen, die vor einem geplanten Einbruch vor Ort sind, um ihn zu verhindern – das klingt noch etwas nach Science Fiction, ist es aber nicht. Das sind Beispiele für Predictive Analytics – und das ist erst der Anfang.
Firmen zum Thema

Predictive Analytics ist im Grunde die logische Weiterentwicklung in der Datenerhebung, -analyse und -verarbeitung. In den vergangenen Jahren ermöglichte eine wachsende Rechenleistung die Analyse riesiger Datenmengen, bekannt unter dem Begriff Big Data. Darin Muster und Zusammenhänge zu entdecken, konnte in der Vergangenheit nur ein erster Schritt sein. Im zweiten Schritt sollen solche wiederkehrenden Muster genutzt werden, um ihre künftige Entwicklung zu prognostizieren und frühzeitig Handlungsoptionen ableiten zu können.
Das ist das Ziel von Predictive-Analytics-Modellen. Um das zu erreichen, kombiniert man Methoden aus Data Mining und Business Intelligence, Spieltheorie und Optimierung. Dabei kann zum Teil auch schon auf vorgefertigte Algorithmen zurückgegriffen werden, wie sie etwa Microsoft Azure Machine Learning bietet.
Sind die Datenmengen ausreichend groß und unterstellt man eine Fortsetzung der Entwicklung in der Vergangenheit auch für die Zukunft, so sind weite Anwendungsfelder denkbar. Praktische Umsetzungen gibt es bereits. Zu den ersten Anwendern gehörten Banken, die die Prognoseverfahren nutzen, um künftige Entwicklungen von Wertpapieren aber auch Kreditnehmer besser einschätzen zu können. Mögliche Risiken sollten so begrenzt werden.
Verbrechensprävention
In den USA nutzt sogar schon die Polizei Predictive Analytics teilweise zur Prävention von Verbrechen. Ein Zustand, wie im Science Fiction Film „Minority Report“ beschrieben, bleibt zwar eine Fiktion, aber es ist bereits möglich, die Wahrscheinlichkeit von Einbruchsdiebstählen oder Gewaltausbrüchen für bestimmte Zeiten und Straßenzüge näher einzugrenzen. Dort kann die Polizei Ihre Streifen dann gezielt verstärken.
Die Logistik, ebenfalls ein Bereich mit riesigen Datenmengen, setzt Predictive-Analytics-Verfahren ein, um beispielsweise unter Verwendung von System- und Echtzeitdaten die Zeit der voraussichtlichen Zustellung an private Empfänger bis auf eine Stunde eingrenzen zu können (siehe Infokasten) – unnötige Wartezeiten für den Empfänger zuhause werden so vermieden.
Die Vorhersagen spielen auch im Vertrieb eine wichtige Rolle. Kundenrankings auf Basis dieser Daten und Methoden erweisen sich – nicht selten zur Überraschung selbst erfahrener Sales-Verantwortlicher – als äußerst genau. Zeitschriftenverlage, für die das Abonnentengeschäft existenziell ist, nutzen ebenfalls Predictive Analytics, um frühzeitig zu erkennen, welche ihrer Kunden bestehende Abonnements voraussichtlich nicht verlängern. So können Sie Maßnahmen zur Kundenbindung genau auf diese Kunden zuschneiden. In diesen Fällen kann der Vertrieb seine Ressourcen gezielter einsetzen.
Echtzeitanalyse von Aufzügen
Zukunftsweisend sind außerdem Internet-of-Things-Anwendungen wie das Wartungsprogramm MAX, das die ThyssenKrupp Elevator AG in Zusammenarbeit mit Microsoft entwickelt hat. Der Aufzughersteller geht davon aus, dass bei weltweit zwölf Millionen Aufzügen jedes Jahr 190 Millionen Stunden durch Wartungsarbeiten für den Betrieb verloren gehen. Daher hat sich der Hersteller entschlossen, mit der Microsoft Azure IoT Cloud ein System zur Echtzeitanalyse der Daten aller Aufzüge weltweit zu installieren.
Mithilfe komplexer Algorithmen kann ThyssenKrupp Elevator so die Restlebensdauer und notwendige Reparaturen ermitteln. Die Daten sendet die Cloud in Echtzeit an 20.000 Servicetechniker weiter. Diese können anstehende Reparaturen in Zeiten mit geringer Auslastung eintakten. Im Ergebnis sollen die Ausfallzeiten durch Wartungsarbeiten um 50 Prozent sinken.
Die Bandbreite an Anwendungen, bei denen Predictive-Analytics-Verfahren künftig zum Einsatz kommen werden, wird weiterhin zunehmen. Es ist außerdem davon auszugehen, dass dies umgekehrt sogar die Art der Datenspeicherung beeinflussen wird. Da viele Datenzusammenhänge im Voraus noch gar nicht bekannt sein können und sich gerade durch die Analysen selbst auch neue Anwendungen ergeben, könnte sich der Ansatz durchsetzen, zunächst einmal so viele Daten wie möglich in Megaspeichern, den „Data Lakes“ für spätere Auswertungen zu sammeln. Technisch ist das mit der Lösung Microsoft Azure Data Lake bereits umsetzbar.
(ID:43760543)