Big-Data-Strategie

So wird der Data Lake eine sprudelnde Informationsquelle

| Autor / Redakteur: Sascha Bäcker und Martin Clement * / Nico Litzel

Idealerweise beginnt man ein Big-Data-Projekt mit einem Blick auf die vorhandenen Daten und die gegebenen Herausforderungen des Unternehmenskonzepts.
Idealerweise beginnt man ein Big-Data-Projekt mit einem Blick auf die vorhandenen Daten und die gegebenen Herausforderungen des Unternehmenskonzepts. (Bild: © sdecoret – Fotolia.com)

Das Trendthema Big Data steht auf der Prioritätenliste vieler IT-Entscheider mittlerweile weit oben – und das zu Recht. Kein Unternehmen kann es sich langfristig leisten, auf Erkenntnisse durch intelligente Datenauswertung zu verzichten. Gehört haben die Verantwortlichen über Big Data schon viel, jetzt wollen sie endlich etwas davon haben. Aus dem Alltag eines Kunden-Beraters.

Die Erwartungen an Big Data sind groß. So Vieles scheint möglich und Beispiele von Erkenntnissen durch selbstlernende Algorithmen hören sich stets phantastisch an. Warum? Weil diese Erkenntnisse dort beginnen, wo der Mensch keine Zusammenhänge mehr erkennen kann. Das liegt an zu großen Datenmengen oder Korrelationen, die der menschliche Verstand aus seiner Erfahrung heraus einfach nicht in Erwägung zieht.

Die Euphorie am Anfang eines Big-Data-Projekts bekommt jedoch unweigerlich den einen oder anderen Dämpfer. Denn für viele Unternehmen ist es der erste Schritt in Richtung Datenauswertung und -Analyse und für die erhofften Erkenntnisse ist auch Einsatz gefordert.

An der ersten Hürde in den Köpfen ist oft der Begriff des Themas selbst schuld: „Big“ steht da. Damit verbinden wir etwas Riesiges, Monströses: Facebook, Web 2.0, Industrie 4.0 und so weiter. Hier sind das Feingefühl und eine realitätsnahe Überzeugungsarbeit des Big Data Consultants gefragt. Zu ausführliche Gespräche über sich verdoppelnde Datenvolumen, all die Milliarden E-Mails, Tweets, Videos und Posts die täglich, ach was, sekündlich, entstehen, schaden bei der Suche nach einem konkreten Use Case.

Definition von Big Data

Hilfreich ist zu Beginn eine klare Definition von „Big Data“. Die fünf „V“ sind dabei sehr aufschlussreich: Velocity (Geschwindigkeit), Variety (Form), Volume (Menge) Value (Wert) sowie Validity (Richtigkeit).

Die ersten drei dieser V sind technisch zu lösen: Durch sinkende Hardware-Preise sowie teilweise frei verfügbare Software und Appliances lässt sich jedes dieser drei V adressieren. Value und Validity sind hingegen nicht technisch zu definieren. Diese beiden Eigenschaften der Daten, Wert und Richtigkeit, können nur durch Spezialisten sichergestellt werden – sie verfügen über die entsprechende Expertise und haben die Interpretationshoheit über die Daten. Wie sieht es aber mit dem konkreten Wert der Daten für ein Unternehmen aus? Was ist denn nun dieser Datenschatz, den es zu heben gilt?

Was war zuerst da, die Antwort oder die Frage?

Es ist paradox: Die Frage, welche Erkenntnis ein Unternehmen aus Big Data ziehen wird, kann häufig nicht beantwortet werden. Aber gerade dieses Rätsel zu lösen, ist spannend. Was eine Analyse aller Daten bewirken kann, zeigt ein Beispiel aus dem Motorsport: Ein Team hatte nach einem Re-Design seines Fahrzeuges Schwierigkeiten, die Vorderreifen auf die richtige Temperatur zu bekommen. Die Ingenieure des Teams, Experten für Reifen und Aerodynamik, waren allesamt nicht in der Lage, dieses Problem zu lösen. Dann gab man die Daten an Spezialisten für Datenvisualisierung. Hier wurden alle Daten, die ein Rennfahrzeug produziert, ausgelesen und visualisiert.

Eine genaue Auswertung der Visualisierung brachte ans Licht, dass die Vorderreifen jeweils aus dem benötigten Temperaturfenster fielen. Grund dafür war, dass die Lenkimpulse des Fahrers durch das „Drive by wire“-System nur verzögert weitergegeben wurden. Bei diesem System werden die Steuerimpulse des Fahrers nicht mehr mechanisch, sondern elektronisch übertragen.

Hier wird deutlich: Niemand hatte die Idee, die richtige Frage zu stellen. Die Ursache des Problems war aber bereits beschrieben: in den vorhandenen, bereits gesammelten Daten. Eine ganzheitliche Analyse aller Daten wird mit an Sicherheit grenzender Wahrscheinlichkeit Probleme lösen und Optimierungsansätze liefern, die keiner der Fachexperten bisher auf dem Radar hat. Aber auch vorhandene Fragestellungen werden von Big Data profitieren.

Von „Dunkern“ und „Whodunits“

In seinem Buch „Homicide“ berichtet David Simon aus der Mordkommission der Stadt Baltimore. Die Kriminalbeamten kennen für ihre Fälle zwei Kategorien: „Dunkers“ und „Whodunits“. Dunkers sind Fälle, bei denen der Täter quasi mit Waffe und Motiv neben dem Opfer steht: Fall gelöst.

Whodunits sind hingegen Fälle, die die besten Ermittler erfordern. Es gibt nur das Opfer und keine Antworten. Auch in Unternehmen gibt es Dunkers: Problemstellungen, die einfach zu lösen sind. Die Parameter sind bekannt, die Interessen der beteiligten Parteien liegen auf dem Tisch, Chancen und Risiken sind untersucht. Whodunits hingegen erfordern den Einsatz von Spezialisten, Controllern und Unternehmensberatern, die Daten erheben, Interviews führen, analysieren und auswerten. Hier kosten fehlende Daten vor allen Dingen eines: Geld.

Aber fehlen die Daten wirklich? Es ist zu vermuten, dass meist schon zielführende Daten vorhanden sind, diese aber noch nicht auswertbar gespeichert werden. Big Data liefert hier die Technologien, die das kostengünstige Speichern und Auswerten aller Daten eines Unternehmens möglich machen. Egal in welcher Form, Geschwindigkeit oder Menge diese entstehen und vorliegen.

Pragmatismus ist angesagt

Sind Daten bisher nicht vorhanden, muss ein Weg gefunden werden, diese Daten zu erzeugen. Hört sich kompliziert an, ist es aber nicht: FedEx versieht beispielsweise Pakete mit Sensoren, die Daten über Position und Status der Lieferung erfassen. Der CEO von FedEx sieht es ganz pragmatisch: „Die Daten über ein Paket sind wertvoller als das Paket selbst.“ Auch hierfür ist Technologie günstig verfügbar. FedEx optimiert mit den erhobenen Daten seine Prozesse und bietet zudem einen neuen Service an: Die beteiligten Parteien einer logistischen Transaktion können die Daten über Position und Zustand des Paketes einsehen – und das nahezu in Echtzeit.

FedEx ist somit ein gutes Beispiel, wie aus Whodunits Dunkers werden können. War möglicherweise bisher nicht klar, wann und wo ein Paket Schaden nahm, so kann diese Frage nun schnell beantwortet und die Fehlerquelle beseitigt werden. Zudem wurde aus diesem ursprünglichen Eigeninteresse ein neuer Service. Damit ist zwar kein neues Geschäftsmodell entstanden, allerdings eine neue Dienstleistung. Eine klassische Win-win-Situation.

„Big“ muss nicht teuer sein

Für solche Ergebnisse lohnt es sich in so gut wie jedem Unternehmen, Big Data ernsthaft voranzutreiben. Die Kosten können entgegen der Erwartungen im Bezug auf das „Big“ sehr gut an die Möglichkeiten der Unternehmen angepasst werden. Die technischen Herausforderungen lassen sich in der Regel durch Open Source Software lösen. Zum Start reicht unter Umständen Hardware, die bereits vorhanden oder günstig zu erwerben ist. Damit kann ein Big-Data-Projekt mit einer relativ kleinen Investition gestartet werden und dann wachsen. Zudem ermöglichen viele Cloud Services einen schnellen und pragmatischen Einstieg.

Einstieg in Big-Data-Projekte

Idealerweise beginnt man ein Big-Data-Projekt mit einem Blick auf die vorhandenen Daten und die gegebenen Herausforderungen des Unternehmenskonzepts. Um die Informationen aus den Daten herauszuholen, hat sich eine neue Wissenschaftsdisziplin entwickelt: Data Science. Die dazugehörigen Wissenschaftler nennen sich Data Scientists.

Für den Data Scientist entsteht eine Verbindung zwischen den Daten und den möglicherweise daraus abzuleitenden Potenzialen für das Geschäftsmodell. Eine solche Ist-Analyse der Daten kann in wenigen Tagen verdeutlichen, wie Mehrwerte für das jeweilige Unternehmen zu heben sind. Hier bietet sich das etablierte Modell „CRISP-DM“ an. In mehreren Iterationen wird ein Modell entwickelt, welches direkt Einfluss auf das jeweilige Unternehmenskonzept hat.

Ein einfaches Beispiel können Marketingmaßnahmen sein, die einen relativ schlechten Rücklauf haben und in der Regel mit der großen Gießkanne an die Kunden gebracht werden. Durch die Methodik der Data Science kann die Treffergenauigkeit deutlich erhöht werden.

Ein weiteres Szenario ist die Analyse von Produktionsdaten. Mit der Speicherung und Analyse von Maschinendaten kann der Ausschuss reduziert, der Ausfall von Maschinen vorhergesagt oder der Produktionsprozess dynamisch angepasst werden. Viele weitere Szenarien aus nahezu allen fachlichen Disziplinen sind denkbar.

Mit Methodik zum Erfolg

Um konkrete Lösungsvorschläge zu finden und umsetzen zu können, hilft eine offene Grundeinstellung nach der Art „Technologie dient der Wissenschaft, alles ist möglich, keine Idee ist zu verrückt“. Spezialisten aus Fachbereichen und der IT sollten dann über strategische Fragen, konkrete Anforderungen, Optimierungspotenziale und Ideen zur Verbesserung des jeweiligen Geschäftsmodells diskutieren. Eine methodische Vorgehensweise auf Basis eines Architektur-Blueprints mit strukturierten Fragestellungen, konkreten Beispielen aus der Praxis und technischer Expertise ist dabei das Ziel. Dazu müssen alle Anforderungen, Ideen und Lösungsansätze dokumentiert und priorisiert werden und führen zu konkreten Lösungsvorschlägen.

Der reale Nutzen und Mehrwert einer Big-Data-Lösung steht für den Fachbereich immer im Vordergrund. Der Data Lake ist letztendlich kein dunkler See voller Untiefen mehr, der alles schluckt und nicht mehr herausgibt, sondern wird zum sprudelnden Quell an Informationen für Fachbereiche und das Management.

* Sascha Bäcker ist Data Scientist und Martin Clement Senior Solution Architect bei Axians IT Solutions, vormals Fritz & Macziol

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44384845 / Analytics)