Suchen

Big-Data-Projekte richtig vorbereiten, Teil 2 So meistern Sie die Herausforderungen bei Big-Data-Projekten

| Autor / Redakteur: Christoph Müller-Dott / Nico Litzel

Die Herausforderungen und Risiken bei Big-Data-Projekten sind vielfältig. Grob unterscheidet man drei verschiedene Kategorien: geschäftliche, operative und technologische Herausforderungen.

Firmen zum Thema

Der Autor: Christoph Müller-Dott ist Managing Director Germany & Austria, Orange Business Services
Der Autor: Christoph Müller-Dott ist Managing Director Germany & Austria, Orange Business Services
(Bild: Orange Business Services)

Hier geht es zu Teil 1: So identifizieren Sie wertvolle Daten

Gerne führe ich im Folgenden nach und nach durch die einzelnen Kategorien:

Geschäftliche Herausforderungen

Die richtige Positionierung in der Datenwertschöpfungskette finden und den größten Wert aus Big-Data-Projekten schöpfen, das sind Herausforderungen, die ganz am Anfang stehen. Mögliche Ansatzpunkte sind hier neue Geschäftsmodelle, Go-to-market-Strategien und neue Wege der Zusammenarbeit mit Partnern und Kunden.

Dazu sollten Firmen erst einmal herausfinden, welches Geschäftsmodell zu einer überzeugenden Value-Proposition führen kann. Fragen wie „Welche Vorteile, auch gegenüber Wettbewerbern, können wir mit Big Data erzielen?“ oder „Wie weit kann Big Data unsere Wertschöpfung im Unternehmen beeinflussen?“ stehen dabei im Mittelpunkt.

Dazu müssen sie das Verhalten, die sich ändernden Anforderungen, die Kosten und Umsatz-Strukturen bei Kunden und Prospects ebenso verstehen wie die Positionierung und Strategien der Wettbewerber. Schließlich sollten sich Big-Data-Projekte am Ende auszahlen – entweder in Form von Prozessoptimierung oder Umsatzzuwachs. Neue Geschäftsmodelle sollten dabei flexibel und agil sein. Denn Unternehmen müssen immer wieder auf neue Marktanforderungen reagieren.

Alleine oder im Team?

Wenn es um Go-to-market-Strategien geht, können Firmen prinzipiell entscheiden, ob sie ihr Big-Data-Projekt alleine durchführen oder eben mit Partnern. Denkbar wäre beispielsweise, dass sich mehrere Handelsunternehmen mit einer Bank oder einem Telekommunikationsunternehmen zusammentun, um Kunden zentral Rechnungen zu stellen. Die Bank oder der Telco-Anbieter könnten den Kunden alle Rechnungen über Mobiltelefone oder Kreditkarten gemeinsam stellen.

Die Komplexität von Big Data führt vermutlich zu vielen möglichen Partnerschaften eines Unternehmens in seinem Umfeld. Deshalb sollte man sich hier auch nicht exklusiv an einen Partner binden, insbesondere, da sich der Markt noch entwickelt.

Im eigenen Unternehmen kommt es zu Beginn eines Big-Data-Projektes meist darauf an, einen schnellen Return on Investment zu erzielen, die Mitarbeiter und sonstige Ressourcen im Projekt zu definieren und das Geschäftsmodell beim Management entsprechend zu platzieren. Das führt zu den operativen und organisatorischen Herausforderungen.

Operative und organisatorische Herausforderungen

Big Data verändert die Unternehmensstruktur radikal, indem sie den Kunden ins Zentrum des Geschehens verlagert. Traditionelle Informationsarchitekturen werden aufgebrochen – mit einer Verlagerung vom Data Warehousing bzw. Datenspeicherung hin zum Data Pooling: Wie teilt man Informationen? Deshalb müssen Unternehmen ihr operatives Modell so anpassen, dass es Big Data unterstützt.

In vielen Fällen ist es wohl am effizientesten, eine Mischung aus dezentralisierten Services für Business Intelligence und eigenständigen Shared Services für Analytics zu fahren. Das hängt natürlich auch von der jeweiligen Branche und den Voraussetzungen im Unternehmen ab. Haben Unternehmen beispielsweise schon BI in die Business Units integriert, können sie bestimmte Performance-Indikatoren etablieren und hypothetische und Daten-basierte Entscheidungen treffen. Die zentrale und unabhängige Analytics-Funktion hilft ihnen dann, einen Überblick über das ganze Business und neue Möglichkeiten zu erlangen.

Unternehmen sollten im Rahmen von Big-Data-Projekten die einzelnen Abteilungen oder Teams ermutigen, nicht mehr in „Silos“ zu denken und die Entwicklung hin zu einer neuen Unternehmenskultur des Austausches und Teilens von Wissen, Informationen und Daten untereinander fördern. Denn oft sind die Unternehmen bisher in Abteilungen, Gruppen oder Teams aufgeteilt und bauen durch ihre tägliche Arbeit spezifisches Wissen und Erfahrungen in ihren Fachgebieten auf.

Strukturen aufbrechen!

Das hat in der Vergangenheit oft dazu geführt, dass diese einzelnen Einheiten den Informationsfluss kontrollierten und der Zugang für andere Einheiten nicht möglich war. Aber für Big Data ist es immens wichtig, diese Strukturen aufzubrechen. Denkbar ist beispielsweise die Einrichtung eines Big-Data-Sponsors, der alle Projekt-Teams zusammenbringt und Konflikte zwischen den einzelnen Abteilungen oder im Team insgesamt verhindert.

Orange hat beispielsweise ein Enterprise Social Network, Plazza, entwickelt, über das sich einzelne Abteilungen zu einem spezifischen Thema austauschen. Vorstellbar ist auch, diese kulturellen Veränderungen mit Incentives zu fördern oder auch mit gewissen Vorgaben einzufordern.

Last but not least: Um Big-Data-Projekte erfolgreich durchführen zu können, müssen Unternehmen die richtigen Experten finden und an Bord holen. Dabei schafft Big Data interdisziplinäre Rollen, deren Anforderungen genau definiert und sichtbar sein sollten. Da sind erstens die Technologie-Spezialisten. Sie verwalten alle Tools für Big Data sowie die entsprechenden technischen Plattformen.

Zweitens gibt es Data Scientists. Sie analysieren, kombinieren die Datensätze, werten sie nach konkreten Fragestellungen aus und extrahieren daraus konkrete Vorschläge für das Geschäftsmodell. Data Scientists sind am schwierigsten zu finden, denn sie benötigen einerseits tiefe statistische, mathematische, aber auch Business-Kenntnisse. Drittens werden Business Manager benötigt, die die Datenherausforderungen verstehen und mit Rat und Tat zur Seite stehen.

Am besten fahren Unternehmen, wenn sie einen Ressourcen-Plan entwickeln, in dem die besten Tools, Skills und Technologien definiert werden. Dann verstehen sie, wie sie komplexe Daten am besten analysieren und Big-Data-Lösungen entwickeln können. Und sie geben der HR-Abteilung oder dem Einkauf die notwendigen Informationen, um die richtigen Mitarbeiter oder Dienstleister zu rekrutieren.

Technologische Herausforderungen

Die richtigen Technologie-Tools zu definieren ist für viele Organisationen sehr schwierig. Dabei kommt es darauf an, folgende Bereiche technologisch abzubilden:

  • 1. Die Datenqualität,
  • 2. die Datencharakterisierung,
  • 3. die Dateninterpretation und
  • 4. die Datenvisualisierung.

Um eine hohe Datenqualität sicher zu stellen, sollte ein Datenmanagement-Tool nutzlose Daten aussortieren und dafür sorgen, dass man konsistente Datensets zur Verfügung hat. Da stetig neue Daten hinzukommen und bestehende Daten sich verändern, müssen die Einstellungen hier flexibel anpassbar sein.

Für die Datencharakterisierung ist es unerlässlich, einen Data Scientist zu beschäftigen und das richtige Datenmanagement-Tool auszusuchen. Wichtig ist dabei, wie viele und welche Arten von Daten man hat bzw. wie sich diese hinsichtlich Geschwindigkeit, Vielfalt und Interoperabilität weiterentwickeln werden.

Für die Datenanalyse und -Interpretation sind die richtige Software und die passenden Spezialisten, die sich mit dem jeweiligen Business eines Unternehmens auskennen, unabdingbar. Software-Entwickler können heutzutage Filter und Mustererkennung entwickeln, die Terabytes von Daten analysieren und interessante Erkenntnisse in einem Bereich daraus gewinnen. Die Muster, die sich hieraus ergeben, lassen sich dann für die Definition neuer Regeln und Prognosemodelle wieder heranziehen.

Ohne Visualisierung sind Daten nutzlos

Die Ergebnisse dann so darzustellen, dass Geschäftseinheiten damit auch etwas anfangen können, ist besonders wichtig. Dafür braucht man die richtigen Mitarbeiter, denn ohne die passende Visualisierung können die besten Daten nutzlos sein.

Für jeden dieser vier Bereiche des Datenzyklus sollte man das richtige Tool und die passenden Personen auswählen. Mit NoSQL-Modellen von Web-Anbietern und Cloud-Lösungen sind die Möglichkeiten, Big-Data-Projekte zu starten, auf der Tool-Ebene enorm gewachsen. Mittlerweile gibt es ein umfangreiches Angebot analytischer Plattformen auf dem Markt.

Die Sicherung der ständig zunehmenden Datenmengen vor dem Zugriff von Hackern und die Implementierung effektiver Sicherheitssysteme für die Big-Data-Lösungen, Frameworks, Kundeninformationen und das gesamte daraus resultierende geistige Eigentum ist ganz besonders kritisch. Darauf sollte man bei der Technologieauswahl in jedem Fall achten.

Der Punkt Datensicherheit ist auch wichtig, wenn es darum geht, wer sich um das Datenmanagement kümmert. Drei Szenarien sind dafür vorstellbar. Erstens: Man beauftragt eine externe Firma mit dem Management der Daten. Komplettes Outsourcing wird aber immer noch als Risiko wahrgenommen. Zweitens: Man kauft Wissen und Technologien im As-a-Service-Modell ein – hier hat man ein mittleres Sicherheitsniveau. Drittens: Man macht alles intern – das bietet hohe Sicherheit und vor allem die komplette Kontrolle über das Sicherheitssystem. Die Frage ist aber, ob man für intern das geeignete Personal findet und die dafür erforderliche Infrastruktur aufbauen kann.

Mittlerweile gibt es zahlreiche Big-Data-Lösungen auf dem Markt, die sich weiterentwickeln und durch neue ergänzt werden. In jedem Fall sollte man darauf achten, dass die ausgewählte Technologie kompatibel mit anderen Systemen ist.

(ID:43845974)