Kommentar von Dr. Michael Eble, mm1 Consulting

So hebt Data Thinking datenbasierte Geschäftspotenziale

| Autor / Redakteur: Dr. Michael Eble / Nico Litzel

Der Autor: Dr. Michael Eble ist Senior Consultant und Leiter der Practice „Data Thinking“ bei mm1 Consulting.
Der Autor: Dr. Michael Eble ist Senior Consultant und Leiter der Practice „Data Thinking“ bei mm1 Consulting. (Bild: mm1 Consulting)

Big Data anders gedacht: Während viele Big-Data-Projekte in der Praxis auf Technik fokussiert sind, verfolgt das Vorgehensmodell Data Thinking den Ansatz, datenbasierte Geschäftspotenziale unter Einbeziehung aller Stakeholder zu erschließen.

Viele deutsche Unternehmen haben erkannt, welches Potenzial Big Data Analytics für ihre Geschäftsprozesse und Wettbewerbsfähigkeit bietet. In der Industrie gilt Big Data als maßgeblicher Enabler für Industrie 4.0. Die Motivation, in Big Data zu investieren, ist dementsprechend hoch. Laut einer Umfrage von Gartner investieren bereits 75 Prozent aller Unternehmen in Big Data oder planen zeitnah Investitionen in diesem Bereich.

Oft scheitern solche Projekte jedoch an einem zu eindimensionalen Fokus. Versteifen sich Unternehmen zu sehr auf die technische Komponente, führt dies spätestens kurz vor dem Rollout zu Problemen bei der Akzeptanz anderer Unternehmensbereiche. Typische Beispiele sind etwa datenschutzrechtliche Bedenken aus der Rechtsabteilung oder Einwände von Prozessverantwortlichen, wenn die neue Big Data-Infrastruktur nicht zu bestehenden Prozessen passt. Um dies zu vermeiden, hat die Unternehmensberatung mm1 das Vorgehensmodell Data Thinking konzipiert, bei dem alle Stakeholder von Anfang an mit in den Entwicklungsprozess integriert sind.

Big-Data-Reifegrad einordnen

Am Anfang eines Big-Data-Projektes steht ein Workshop mit Vertretern aus verschiedenen Unternehmensbereichen. Die Stakeholder verorten darin den derzeitigen Big-Data-Reifegrad des Unternehmens, um einen gemeinsamen Aufsatzpunkt für das weitere Vorgehen zu erhalten. Eine erste Einschätzung gewinnen Unternehmen mit der Einordnung in eine der vier aufeinander aufbauenden Big-Data-Reifegradstufen, die auf einer Klassifikation von Porter und Heppelmann (Harvard Business Review, 2014) basieren:

  • 1. Monitoring: Das Unternehmen überwacht und misst Daten, beispielsweise Betriebsstunden oder Temperatur, um Verschleiß zu bestimmen.
  • 2. Steuerung: Algorithmen erkennen, wenn Events wie Fehler mit hoher Wahrscheinlichkeit zeitnah auftreten und geben Handlungsempfehlungen.
Ergänzendes zum Thema
 
Über mm1
  • 3. Optimierung: Systeme sind in der Lage, selbstständig Zusammenhänge zu erkennen. Sie passen beispielsweise Parameter an, um die Produktions-effizienz zu steigern.
  • 4. Autonomie: Eingesetzte Systeme koordinieren sich weitgehend eigenständig und führen Selbstdiagnosen durch, um daraus logische Handlungen abzuleiten.

Data Map ausfüllen

Mit dem Ausfüllen einer Data Map erhalten Projektverantwortliche eine Übersicht darüber, welche Daten-Ressourcen bereits für die Entwicklung eines Big-Data-Geschäftsmodells zur Verfügung stehen. Durch die Einordnung der Datenquellen nach Typ wie intern und extern oder nach Volumina und Grad der Dynamik lassen sich Herausforderungen fachabteilungsübergreifend erkennen – etwa vor dem Hintergrund des Datenschutzes oder der Datenverwertung. Die Data Map deckt außerdem auf, welche Datenquellen noch erschlossen werden müssen. Bestimmte Use Cases erfordern darüber hinaus Kenntnisse über die Aktualisierungsintervalle der Daten. Beispielsweise reicht für eine umfassende Machine-to-Machine-Kommunikation eine Batch-Prozessierung meist nicht aus. Eine Datenerfassung und -auswertung in Echtzeit schafft hier Abhilfe.

Hero Use Cases definieren

Vor allem während früher Projektphasen kommen sehr viele Ideen zur Big-Data-Nutzung auf den Tisch. Für die Erschließung datenfokussierter Geschäftspotenziale ist diese Kreativität auch notwendig. Nach den ersten Workshops zum Thema sollten die Projektbeteiligten das Zielbild jedoch konkretisieren, um nicht zu weit auszuufern.

Hierzu empfiehlt es sich, drei bis fünf Heros Use Cases – also Anwendungs-szenarien, die den meisten Nutzen versprechen – in Abhängigkeit des IST-Reifegrades zu definieren. Dies hilft dabei, den Soll-Zustand genauer einzugrenzen. Das Projektteam kann beispielsweise zu dem Schluss kommen, dass das Unternehmen derzeitig die Maschinendaten in der Produktion erfasst, diese aber nicht ausreichend verwertet. Ziel ist es dann, den nächsthöhere Big-Data-Reifegrad zu erreichen und ein System zu implementieren, das die gesammelten Informationen, etwa im Rahmen von Predictive Maintenance, nutzbar macht.

Nutzwert qualifizieren und quantifizieren

Nächster Schritt ist es, zusammen mit allen Stakeholdern einen konkreten Nutzen für ein Produkt oder einen Geschäftsprozess abzuleiten und das Zielbild weiter zu schärfen. In einer Diskussionsrunde klären alle am Projekt Beteiligten, wo Nutzwerte für das Unternehmen entstehen und was man konkret verbessern möchte. Einzelne Use Cases und Nutzwerte werden dabei sowohl qualitativ als auch quantitativ betrachtet.

Aus der internen Sicht bedeutet beispielsweise eine Report-Erstellung auf Basis von automatisiert gesammelten Informationen auf den ersten Blick einen qualitativen Nutzen für den entsprechenden Mitarbeiter. Um besser messen, analysieren und vergleichen zu können, lohnt es sich, diese Erkenntnis zu quantifizieren: Wie viel Zeit spart der Mitarbeiter, wenn er Reports nicht komplett von Hand erstellen muss?

Hinzu kommen Nutzwerte aus der externen Perspektive: Neue Geschäftspotenziale können beispielsweise in der Veredelung und Verknüpfung von anonymisierten Sensordaten aus PKWs liegen, die ein Autohersteller gegen Nutzungsentgelt einer Versicherung zur Verfügung stellt.

Big Data Value Chain und Blueprint-Architektur definieren

Mit der dreistufigen Big Data Value Chain klärt das Projektteam anschließend, wie die definierten Use Cases und Nutzwerte auf Basis der vorhandenen Data Map realisiert werden können:

  • 1. Sammeln der Daten: Die Daten werden zusammengetragen, zugänglich gemacht und organisiert, sodass sie anschlussfähige Strukturen haben.
  • 2. Integrieren der Daten: Die Daten werden in eine Repräsentation gebracht, der das Anwenden von Analyseverfahren ermöglicht.
  • 3. Verwerten der Daten: Mittels Verfahren wie Data Mining werden die Daten analysiert, um Muster und Zusammenhänge zu erkennen. Erkenntnisse werden visualisiert und Handlungen abgeleitet.

Die Big Data Value Chain bildet eine fundierte Basis für Projektverantwortliche, um sich Gedanken über die technische Umsetzung der Wertschöpfungskette zu machen. Eine erste Blueprint-Architektur gibt Aufschluss über mögliche Komponenten zur technischen Implementierung.

Realisierbarkeit prüfen und priorisieren

Die Grundlage, um die möglichen technischen Lösungen zu bewerten und auszuwählen, liefert der Big Data Action Plan. In einem Workshop grenzen die Stakeholder des Unternehmens die verfügbaren Systemkomponenten auf eine optimale Lösung ein. Dabei werden neben der technischen Realisierbarkeit auch Aspekte aus anderen Unternehmensbereichen mit einbezogen: Wie kann das Unternehmen das erforderliche Investment finanziell im Geschäftsmodell abbilden? Welche Auswirkungen hat die Lösung auf die Organisation? Bewegt sich das System innerhalb des gesetzlichen Rahmens?

Minimum Viable System bauen

Steht die vorläufige Systemarchitektur fest, beginnt der Aufbau eines Minimum Viable Systems. Dieses System erlaubt eine umfassende Pilotphase unter Realbedingungen, ohne Rollout auf das Produktivsystem. Projektverantwortliche testen damit, ob das identifizierte Nutzenpotenzial über die Verbindung der verschiedenen Datenquellen auf den Use Case einzahlt. So lässt sich schnell ein Prototyp entwickeln und verproben, um Investitionsbudgets möglichst effizient einzusetzen.

Feedback einholen und analysieren

Auf Basis des Minimum Viable System lassen sich Tests mit verschiedenen Anwendern durchführen. So erhalten Unternehmen gezieltes Feedback und validieren, ob die Erwartungshaltung an das System bedient wird. Besonders wichtig zu beachten ist, die Akzeptanz der Lösung bei den einzelnen Stakeholdern zu prüfen und differenziert zu betrachten. Die Ergebnisse der Feedback-Analyse bilden die Grundlage für Projektverantwortliche weitere Schritte einzuleiten.

Fazit

Data Thinking bezieht die Bedarfe aller Stakeholder an die Big-Data-Lösung mit ein und liefert schon in frühen Projektphasen ein Gerüst für ausführliche Tests. So erschließen Unternehmen datenfokussierte Geschäftspotenziale aus Sicht der Gesamtorganisation und sparen Ressourcen durch ein gemeinsam definiertes Zielbild. Unternehmen heben so den Nutzen für bestehende Prozesse etwa im Kundenservice und identifizieren neue Geschäftspotenziale wie beispielsweise den Vertrieb von veredelten Daten. Das iterative Vorgehen des Modells bildet die Grundlage für Projektverantwortliche, Entscheidungen entlang eines klar strukturierten Verfahrens zu treffen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44252276 / Best Practices)