Kommentar von Georg Aholt, Itelligence AG

So beflügeln Predictive Analytics und Big Data neue Geschäftsmodelle

| Autor / Redakteur: Georg Aholt / Nico Litzel

Der Autor: Georg Aholt leitet bei der Itelligence AG den Fachbereich „Business Analytics & Information Management“.
Der Autor: Georg Aholt leitet bei der Itelligence AG den Fachbereich „Business Analytics & Information Management“. (Bild: Itelligence)

Die ersten Unternehmen aus dem deutschen Mittelstand haben begonnen, datengetriebene Geschäftsmodelle umzusetzen. Aber für die meisten Verantwortlichen steht die traditionelle Produktion von Gütern im Fokus. Dabei stellen Systemhäuser und IT-Hersteller Technologie, Konzepte und Experten bereit, die Predictive-Analytics-Systeme implementieren, produktiv schalten und die CIOs in die datenbetriebene Zukunft begleiten.

Predictive Analytics ist die Disruption des High-Performance-Computings. Möglich wird dies durch den Einsatz von Open-Source-Framework und -Software, die von SAP Predictive Analytics orchestriert werden. Eine entscheidende Komponente in dieser Infrastruktur ist die Möglichkeit, über verteilte Systeme und Cluster zu speichern und zu rechnen – etwa mithilfe von Hadoop. Außerdem kann Predicitve Analytics starke mathematische und statistische Programme anbinden. Hierzu zählt die Statistiksoftware „R“. Eine dritte, entscheidende Komponente ist die Visualisierung, die –beispielsweise SAP – mit einer eigenen Engine realisiert. Der Backbone von SAP besteht aus der SAP S/4 HANA Appliance und dem Predictive-Analytics-System, das alle Werkzeuge, Datenquellen und Anwendungen verbindet.

Für die Industrie ist diese Architektur ein entscheidender Schritt nach vorne – denn die Predictive-Analytics-Systeme sind die Grundlage der Digitalisierung in unzähligen Unternehmen rund um den Globus. Deren erstes Ziel ist der Wandel zu einer datengetriebenen Organisation, die mithilfe von Automatisierung und Machine-to-Machine-Prozessen eine hohe Wertschöpfung erzielt. Danach planen sie weitere Schritte – etwa die gesamte Automatisierung der Produktion und der Logistik oder selbstlernende und autonom laufende Maschinen.

High-Performance Computing für alle

Für viele Unternehmen im deutschen Mittelstand ist das High-Performance Computing eine unbekannte Welt. Bislang setzen Großkonzerne die Supercomputer ein. Sie können sich die immens hohen Kosten leisten: Speicher, Rechenpower, Software und der Stromverbrauch sind extrem teuer. Und gleichzeitig ist der Nutzen umstritten. Denn selbst in großen Konzernen gibt es nur wenige Bereiche, in denen Datenqualität und Datenstrukturen so gut sind, dass Data Analytics oder Data Mining sinnvolle Ergebnisse bringen. Deshalb sind bis heute die meisten Anwendungen rund um statistische und mathematische Probleme herum gebaut. Klassische Anwender sind Versicherungen, Banken oder wissenschaftliche Institute.

Doch der Erfolg der datengetriebenen Unternehmen wie Google, Facebook oder Uber liegt darin begründet, dass sie das High-Performance Computing neu denken: Sie überführen es aus dem bisherigen Umfeld in neue Geschäftsfelder und neue Prozesse. So nutzen sie statistische Modelle, um das Verhalten von Kunden vorauszusagen. Jetzt können sie Marketing, Vertrieb und Service automatisieren und individuelle Angebote für den Massenmarkt definieren.

Diese Anbieter haben ihre Predictive-Analytics-Systeme im großen Stil selbst konzeptioniert und implementiert. Heute steht für alle anderen Unternehmen Standardsoftware bereit, die mit Open-Source-Anwendungen arbeiten kann. Damit wird High-Performance-Computing für alle Organisationen bezahlbar. Für die Anwender öffnen sich die Türen zu neuen Geschäftsmodellen, neuen Märkten und neuen Technologien.

Die neuen Experten: Data Analyst und Data Scientist

Doch ein Predictive-Analytics-System ist keine Billigversion eines Supercomputers. Denn obwohl die Kosten tatsächlich erheblich niedriger sind als zuvor, bringen die Systeme einigen Aufwand mit sich. Die CIOs kaufen neue Werkzeuge, sie erstellen neue Datenquellen und werden dann feststellen, dass sie wichtige Teile ihrer Infrastruktur neu denken und neu kennenlernen müssen.

Und auch mit ihrer alten Personalstrategie werden sie in der Predictive-Analytics-Ära nicht weiterkommen. Neue Technologien bringen neue Berufsbilder mit sich und damit völlig neue Anforderungen an die Mitarbeiter und ihre IT-Leiter. Im Mittelpunkt steht dabei immer der Umgang mit den Daten, deren Aufbereitung und Analyse.

Ergänzendes zum Thema
 
Interview mit Prof. Volker Stich, RWTH Aachen
Der Chief Data Officer etabliert sich

Umfrage

Der Chief Data Officer etabliert sich

09.10.17 - Auf der obersten Unternehmensebene gibt es eine neue Verantwortlichkeit: Immer mehr Betriebe engagieren einen Daten- oder Analytikchef. Richtig so, findet das Marktforschungs- und Beratungsunternehmen Gartner. lesen

Data Analysten bezeichnen sich selber als „Big Data Enabler“. Sie sind verantwortlich, dass die Modellierung sauber läuft, dass Datenbanken und entsprechende Datenschutz-Architekturen fließend funktionieren.

Data Scientists arbeiten dagegen vornehmlich an der Schnittstelle zwischen Menschen und Maschinen: Fachabteilung, Management, Chefetage auf der einen Seite und die High-Performance-Infrastruktur auf der anderen Seite. Sie übersetzen die Ergebnisse der Supercomputer für ihre Kolleginnen und Kollegen, für das Management und die Geschäftsführung. „Storytelling“ hat sich als Fachbegriff etabliert – das Wort beschreibt die Aufgabe aus den Rechenergebnissen Handlungsempfehlungen und Hypothesen abzuleiten und weiterzugeben.

So bereiten Sie Daten verständlich auf

Business Intelligence leicht gemacht, Teil 3

So bereiten Sie Daten verständlich auf

20.03.17 - Business Intelligence deckt bislang unentdeckte Datenzusammenhänge auf, um Entscheidungsgrundlagen zu liefern und letztlich mehr Klarheit zu schaffen. Nachvollziehbare optische Aufbereitung ist entscheidend für die logische Präsentation der Analyseergebnisse. Im dritten Teil der Grundlagen-Reihe zu Business Intelligence erklärt Dr. Stefan Jensen, Director PreSales D/A/CH bei Qlik, wie aus Daten Geschichten werden und wie man sie mit professioneller Visualisierung richtig erzählt. lesen

Aus technischer Sicht ist ihre Hauptaufgabe die Arbeit mit mathematischen Modellen. Sie kennen die verschiedensten Ansätze und Möglichkeiten der statistischen Verfahren und wählen die richtigen Methoden aus – etwa für Data Mining, Machine Learning oder eben auch vorausschauende Analytics.

Selbstverständlich bilden die Informationstechnologie und die verschiedenen Systeme rund um Predictive Analytics den Werkzeugkasten, aus dem sich Data Scientists bedienen. Aber ihre eigentliche Aufgabe ist es, neue Ideen zu entwickeln, umzusetzen und abstrakte, mathematische und statistische Modelle zu erstellen.

Vertrauen in die Ergebnisse

Neue Werkzeuge zeigen die Welt aus einer anderen Perspektive. Viele Ergebnisse der Predictive Analytics sind überraschend und unerwartet. Dieses neue Wissen destillieren Data Analyst und Data Scientist aus den gigantischen Datenmengen ihrer IT-Infrastruktur.

Doch für das Management gibt es häufig ein sehr ernüchterndes Ergebnis – die schiere Masse der Daten steht in den meisten Fällen in keinem Verhältnis zu den aus ihnen destillierten Informationen. Die Erwartung, in den Daten ein schier unendliches Wissen zu finden, ist falsch.

Vielmehr kommt das Wissen in eher kleinen Mengen bei den Anwendern an – und nun ist es die Aufgabe der Data Scientists ihrer Geschäftsführung zu erklären, dass es nicht um den Umfang einer Information geht, sondern um deren Tiefe und um deren Sinnhaftigkeit. Häufig stellt sie zunächst lediglich Wissen dar, dass zwar bekannt ist, vorher aber nicht dokumentiert und kommuniziert wurde.

Grundlage für die autonome Produktion

Beispiel Predictive Maintenance: Eine bestimmte Komponente einer Maschine bricht nach einer bekannten Betriebszeit. Die Verschleißwarnung für diese Komponenten ist eher eine Erinnerung, als explizit neues Wissen. Und doch garantiert ein kleiner Alert an das Serviceteam nicht nur die unterbrechungsfreie Produktion – er ist weitergeführt, über die gesamte Anlage ausgerollt und zu Ende gedacht auch Grundlage für die autonome Produktion.

Doch diese Informationen sind nur dann sinnvoll, wenn sie absolut vertrauenswürdig sind, wenn sie über die gesamte Breite eines Unternehmens Auskünfte geben und so helfen, ein neues Verständnis für das zu entwickeln, was innerhalb der Organisation passiert. Deshalb erwarten das Management und die IT-Leiter einen langfristigen „Dialog mit den Daten“.

Erst dann können die Verantwortlichen den zweiten Schritt gehen. Sie begreifen die Ergebnisse der Analysen als eine Darstellung einer – bisher so nicht bekannten – Realität innerhalb des Unternehmens und bauen darauf neue Geschäftsprozesse auf.

Und erst ab diesem Punkt beginnt der eigentliche Wandel des Unternehmens – hin zu einer datengetriebenen und automatisierten Organisation. Von einer Organisation, bei der die Menschen die letzte Entscheidung haben, zu einer Organisation, in der die Menschen über die Entscheidungen der Maschinen informiert werden.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44954248 / Analytics)