Kommentar von Thomas Schramm, Atos Deutschland Erfolgsmotor Big Data Analytics

Autor / Redakteur: Thomas Schramm / Nico Litzel

Daten sind der Treibstoff der digitalen Transformation von Unternehmen. Big Data Analytics liefern die Entscheidungsgrundlage für Prozessoptimierung, Geschäftsmodelle, Kundeninteraktion und Vieles mehr. Doch dazu müssen Daten zielgerichtet analysiert werden. Eine Erkenntnis, die viele Entscheider bereits dazu veranlasst hat, in Big-Data-Technologie zu investieren. Doch diese Projekte scheitern häufig an kurzsichtiger Planung oder zu zaghafter Vorgehensweise. Das praxisbewährte Erfolgsrezept: Eine ganzheitliche Datenstrategie aus einer Hand – von der Beratung bis zu Hardware-Installation.

Anbieter zum Thema

Der Autor: Thomas Schramm ist Head of CSI bei Atos Deutschland
Der Autor: Thomas Schramm ist Head of CSI bei Atos Deutschland
(Bild: Atos Deutschland)

Durch die immer weit reichendere Vernetzung und die stetige Zunahme internetfähiger Geräte steigt das Datenvolumen exponentiell an. Unternehmen haben längst erkannt, dass Erfolg im digitalen Zeitalter untrennbar mit der Fähigkeit verknüpft ist, aus der Datenmasse die entscheidenden Informationen auszusieben und in Handlungsempfehlungen zu verwandeln. Wer die Datenschätze ignoriert oder zu langsam reagiert, wird vom schnelllebigen digitalen Markt zurückgelassen.

Eine Prognose von Philip Carnelley, Research Director bei IDC Europe, unterstreicht den enormen Stellenwert der Daten: Bis zum Jahr 2020 werden demnach Unternehmen mit effektiver Datenanalyse einen Marktvorsprung von rund 430 Milliarden US-Dollar gegenüber ihren weniger innovativen Gegenübern erwirtschaftet haben.

Schnelligkeit ist geboten

Unternehmen müssen also schnell handeln. Laut einer Studie von Bitkom Research im Auftrag von KPMG nutzten 2016 bereits 35 Prozent der Unternehmen in Deutschland Big Data Analytics. Zwei Jahre davor waren es erst 23 Prozent. Dennoch tun sich viele Betriebe schwer damit, das Potenzial von Big-Data-Analysen voll auszuschöpfen. Die Mehrheit der Projekte kommt nicht einmal über die Pilotphase hinaus oder sind nicht in der Lage, einen greifbaren Nutzvorteil zu generieren.

Das Marktforschungsunternehmen Gartner prognostiziert für dieses Jahr eine Abbruchrate für Big-Data-Projekte von 60 Prozent. Um diesen Spagat zwischen erfolgreicher Datenanalyse und schwieriger Umsetzung zu schaffen, sind Unternehmen auf innovative und agile Ansätze angewiesen. Eine ganzheitliche Datenstrategie, die sich durch das gesamte Unternehmen zieht und in allen Abteilungen einheitlich umgesetzt wird, verleiht die nötige Flexibilität und Reaktionsschnelle, um am digitalen Markt zu bestehen. Denn wer mit seinem Big-Data-Analytics-Projekt spät dran ist läuft Gefahr, dass sich in der Zwischenzeit andere einen Großteil des Geschäfts gesichert haben.

Klare Ziele, voller Erfolg

Ganzheitlichkeit bedeutet jedoch nicht Einheitlichkeit. So individuell wie die Unternehmensdaten sind die Voraussetzungen und Umsetzungsszenarien für eine erfolgreiche Datenstrategie. Lösungen von der Stange operieren meist an den Bedürfnissen des Unternehmens vorbei und nutzen weder das Potenzial der Daten noch der teuren Hochleistungssysteme, auf denen sie basieren.

Stattdessen ist es entscheidend, dass die Verantwortlichen in Kooperation mit einem erfahrenen Dienstleister die Probleme und Ziele identifizieren und anschließend die darauf abgestimmte Technologie auswählen. Denn nur wenn die Tools zusammenpassen und sich nahtlos in die bestehende Infrastruktur einfügen, kann das Unternehmen aus den Vollen des Datenozeans schöpfen. Das geht am leichtesten mit einer End-to-End-Lösung aus einer Hand: Beratung, Technologieempfehlung, Integration, Projekt-Management und nachträgliche Betreuung und Service.

Begonnen wird stets mit ausführlichem Consulting auf Management-Ebene. Trotz des stark technologisch geprägten Charakters von Big-Data-Lösungen ist es mindestens ebenso wichtig, sie einheitlich über alle Abteilungen hinweg zu integrieren und einzusetzen – eine Aufgabe für das Management. Dennoch sollte die IT-Abteilung von Anfang an ins Boot geholt werden, um einerseits über die übergeordneten Geschäftsziele informiert zu werden und andererseits ihr Fachwissen in der Planung der Architektur und des Funktionsumfangs einzubringen.

Beratung bei Sicherheits-, Rechts- und Compliance-Fragen

Eine weitere wichtige Aufgabe, die spezialisierte Dienstleister im Vorfeld erbringen können, ist die Beratung bei Sicherheits-, Rechts- und Compliance-Fragen. Unternehmen benötigen den richtigen Data-Governance-Ansatz – also das Wissen um den konformen Umgang mit den Daten. Dazu zählt in erster Linie der Schutz von sensiblen personenbezogenen und geschäftskritischen Daten. Dessen Missachtung kann immense juristische Konsequenzen nach sich ziehen, wie sie in der im Jahr 2018 in Kraft tretenden europäischen Datenschutz-Grundverordnung festgehalten werden.

Nachdem diese grundlegenden Fragen geklärt sind und die Strategie aufgestellt ist, analysieren Entscheider, Consultants, Data Scientists und -Architekten in Workshops die Ist-Situation: Zur Verfügung stehende Daten, mögliche externe Quellen, das aktuelle Geschäftsmodell und weitere mögliche Geschäftsszenarien und Services auf dessen Basis. Daraus entwickeln die Beteiligten bedarfsgerechte Use Cases.

Anschließend folgt die Proof-of-Value-Phase: Big-Data-Experten stellen eine „Sandbox“ zur Verfügung, in der mit einem konkreten Datenset experimentiert werden kann. Sie identifizieren die Schlüssel-Korrelationen und -Muster und untersuchen, welches Potenzial für vorausschauende Analysen in den Datensätzen steckt. So exerzieren sie einen Use Case durch und können innerhalb von kurzer Zeit darstellen, welche Vorteile die Datenanalyse bringt.

Software und Hardware im Schulterschluss

Praxiserprobte Big-Data-Analytics-Anbieter gehen bei der Wahl der Software und Hardware passgenau auf die Bedürfnisse des Unternehmens ein. Cloud-, Hybrid-Cloud- und On-Premises-Lösungen stehen zur Auswahl. Neue Elemente können in bereits bestehende IT-Infrastrukturen integriert werden. Ein abgestimmtes Portfolio an Software-Lösungen, das zudem auf einer vorkonfigurierten Plattform basiert, reduziert Aufwände für die Implementierung und beschleunigt die Einführung. Erfahrungsgemäß lassen sich cloudbasierte Big-Data-Anwendungen bereits innerhalb weniger Stunden aufsetzen und in Betrieb nehmen. Eine geschickte Kombination von standardisierten Best-Practices-Komponenten mit maßgeschneiderten Lösungen senkt die Anpassungskosten deutlich – so können Unternehmen beispielsweise mehr Budget für Experimente aufwenden.

Auf der Hardwareseite sollten sich Supercomputer im Portfolio befinden: Die Hochleistungsrechner sorgen besonders bei zeitkritischen Datenanalysen wie im Medizin- oder Finance-Sektor für einen deutlichen Geschwindigkeits- und damit Leistungsvorsprung. Zudem skalieren sie problemlos auf die Anforderungen verschiedener Workloads. Je nach Analyse-Situation können diese ganz unterschiedlich ausfallen: Einige sind zum Beispiel sehr speicherintensiv, andere brauchen viel Rechenleistung.

Eine standardisierte Plattform sorgt dafür, dass alle Einzelelemente gut zusammenarbeiten und sich schnell integrieren lassen. „As-a-Service“-Angebote haben Highend-Computing auch für kleine und mittelständische Unternehmen erschwinglich gemacht. Denn sie zahlen nur, was sie tatsächlich nutzen und können so auch mit größeren Unternehmen konkurrieren, ohne das eigene Budget zu sprengen.

(ID:44475019)