Suchen

Big-Data-Projekte So klappt die reibungslose Einführung

| Autor / Redakteur: Greg Palesano / Nico Litzel

Viele Unternehmen arbeiten an Big-Data-Projekten, bringen sie aber kaum über die Proof-of-Concept-Phase hinaus. Wie können sie einen reibungslosen Übergang in den produktiven Einsatz gewährleisten?

Firma zum Thema

Der Autor: Greg Palesano ist Executive Vice President von HCL Technologies
Der Autor: Greg Palesano ist Executive Vice President von HCL Technologies
(Bild: HCL Technologies)

Aktuelle Studien zeigen, dass mehr als die Hälfte aller Big-Data-Projekte die damit erwünschten Ziele nicht erreicht. Das liegt unter anderem an mangelndem Verständnis, fehlenden Fachkräften oder zu geringer Systemperformance. Doch Vorbilder wie Google oder Amazon zeigen, wie es geht. Was müssen also Unternehmen für eine nahtlose Big-Data-Implementierung in der Praxis beachten?

Als Vorbild können hier Unternehmen dienen, die in den vergangenen Jahren erfolgreich Big-Data-Projekte durchgeführt haben. Sie stammen aus verschiedenen Branchen wie Telekommunikation, Produktion, Energieversorgung, Gesundheitswesen, öffentliche Hand oder der Finanzbranche. Bei ihnen ist Big Data schon lange kein Schlagwort mehr, sondern gelebte Realität, um einen konkreten Business-Mehrwert zu erreichen.

In der Praxis erfolgreich

So hat zum Beispiel ein großes Versicherungsunternehmen durch die Anpassung seiner Angebote an individuelle Kundenwünsche die Produktdurchdringung, also die Nutzung eines spezifischen Angebots durch die Kunden, von 0,5 auf 7 Prozent sowie die allgemeine Kampagnenperformance, also den Erfolg einer Werbekampagne, von 7 auf 12 Prozent erhöht. Damit konnte es den Umsatz seiner Produkte deutlich steigern. Das erreichte das Unternehmen durch ein System, das es erlaubt, alle Kundendaten in einer zentralen Konsole einsehen, analysieren sowie in Echtzeit in Betriebsprozesse integrieren zu können.

Ein Sportwarenhändler kombiniert ebenfalls alle Daten von verschiedenen Systemen in Echtzeit, um die Effizienz seiner Prozesse zu prüfen. Dazu gehören auch Informationen zu Kundenverhalten und Kaufentscheidungen sowie Inventurverwaltung und Bestellmanagement. Durch den transparenten Überblick über die Daten und die optimierte Steuerung der Prozesse verbesserten sich deutlich die Bereitstellung von Produkten sowie die Effizienz der Lieferkette.

Automatische Analyse von Produktionsdaten

Ebenso in Echtzeit sammelt ein Flugzeughersteller zahlreiche Produktionsdaten, um sie automatisch zu analysieren. Damit lassen sich Fehler und Ausfälle in der Herstellung vorhersagen. Durch präventive Wartung haben sich die Betriebszeit der Fertigungsstraße sowie das Service-Management deutlich verbessert.

Ein Autohersteller nutzt Social-Media-Daten, um zu verstehen, wie Product Placement den Vertrieb unterstützt. Er erhält eine Meldung, sobald das Produkt in einem Film oder einer anderen Medienproduktion gezeigt wird. Anschließend kann er über eine Big-Data-Analyse die steigende Kundennachfrage vorhersagen und die Produktion entsprechend skalieren und anpassen, bis hin zur Farbe der produzierten Autos.

Der Weg zu Big Data

Was haben diese Unternehmen bei der Einführung ihrer Big-Data-Projekte richtig gemacht? Sie haben sich richtig entschieden, wo sie anfangen und auf welche Punkte sie sich konzentrieren sollen. Dazu wählten sie einen Ansatz, der aus drei Schritten besteht: Konsolidierung, Freisetzung und Schließen des Kreises.

Konsolidierung bedeutet, dass im ersten Schritt alle Daten aus unterschiedlichen Typen von Quellen gesammelt werden. Dazu zählen etwa Klick-, Log- oder Social-Media-Daten. Diese werden virtuell integriert, deren Analyse automatisiert und die Ergebnisse übersichtlich zusammengefasst.

Die Freisetzung der Daten steht für den Zugriff auf diese Informationen über verschiedene Kanäle durch die Fachabteilungen. Die Herausforderungen liegen hier vor allem in der Gewährleistung der Datensicherheit, dem Datenmanagement, einer hohen Datenqualität und der Steuerung.

Um den Kreis zu schließen, muss das Unternehmen ein geeignetes Betriebsmodell für das Big Data Management entwickeln, den Übergang organisieren und die Ressourcen entsprechend skalieren. Zu diesem Punkt gehören auch die interne Änderung der Organisationsstrukturen, die Zusammenarbeit mit Partnern für Produktentwicklungen sowie die Monetarisierung der Big-Data- und Analyse-Prozesse. Das ist letztlich der erfolgsentscheidende Schritt aufgrund des meist sensitiven Change Managements sowie der Anpassung der KPIs.

Flexible Einbindung der Mitarbeiter

Mithilfe dieses Ansatzes können Unternehmen den scheinbar undurchdringlichen Big-Data-Dschungel in den Griff bekommen und ihre Projekte aus der Proof-of-Concept-Phase in den produktiven Einsatz bringen. Die eingehenden Daten und Logiken müssen dabei entsprechend modifiziert werden, um die Mitarbeiter flexibel einzubinden. So sind ein sicherer rollenbasierter Zugriff auf die Informationen, Self-Services zur Anpassung der Analysen, eine gemeinsame Ideenfindung über soziale Netzwerke sowie eine Visualisierung auf jedem Gerät nötig. Dazu dient ein Arbeitsbereich für die Datenermittlung sowie deren Bereitstellung als Service über Tools für maschinelles Lernen und Business Intelligence.

Doch wie können Unternehmen damit starten? Am Anfang steht die Ideenfindung, bei der zahlreiche verschiedene Nutzungsszenarien entwickelt werden. Anschließend folgt die Priorisierung dieser Use Cases anhand des Einflusses auf die Geschäftstätigkeit. Um das zu unterstützen, benötigen Unternehmen ein Governance-Modell, das den Prozess vorantreibt sowie die IT- und die Business-Abteilung integriert. Anschließend wird das Big-Data-Projekt auf Basis der ausgewählten Nutzungsszenarien implementiert, um einen möglichst hohen Geschäftsvorteil zu erreichen.

Das optimale Betriebsmodell erfordert dabei den Aufbau eines funktionsübergreifenden Teams aus Data Science und Data Engineering sowie die gemeinsame Innovation mit Partnern auf Basis agiler Modelle. Die Beteiligten müssen dabei auf den gesamten Datenbestand zugreifen können. Das verändert deutlich die Dynamik der Innovationen sowie die Übertragung der Nutzungsszenarien in den großen Maßstab der Produktivphase.

Sicherheit gewährleisten

Beim Sammeln großer Datenmengen sind jedoch einige Aspekte in den Bereichen Sicherheit und Datenschutz zu beachten, um Vertrauen und Transparenz beim Umgang mit persönlichen Daten zu erreichen. Dazu zählen etwa die Themen IT-Sicherheit, Zugriffsschutz, Regulierungen, sich ändernde Kundenanforderungen, Sicherung der Geschäftstätigkeit, widerstreitende Ansprüche auf das Eigentumsrecht der Daten, Persönlichkeitsrechte, Datenschutz, fehlendes Bewusstsein für den sicheren Umgang mit Informationen und für die möglichen Gefahren sowie geopolitische Spannungen, die zu staatlich gelenkten Angriffen bis hin zum Cyberwar führen können.

Die Abwägung der Risiken muss dabei auf verschiedenen Ebenen wie Gesellschaft, Unternehmen oder individuelle Personen erfolgen. Die möglichen Gefahren sind entsprechend einzustufen und über geeignete Schritte zu reduzieren. Dazu müssen funktionsübergreifende Teams Richtlinien festlegen, um die Datenintegrität im Kontext zu gewährleisten.

Nur eine Balance zwischen individuellem Schutz, Wertschöpfung, Sicherheit, Zuverlässigkeit, Durchsetzung von Richtlinien, Rechte und Verantwortung für die Nutzung von Daten sorgt für Transparenz und Vertrauen. Das ist gleichzeitig eine der größten Herausforderungen von Big-Data-Projekten. Dienstleister wie HCL können hier wertvolle Unterstützung bieten, um die komplexen Anforderungen so effizient und effektiv wie möglich zu bewältigen.

Artikelfiles und Artikellinks

(ID:43307183)