Suchen

Adesso zeigt richtiges Vorgehen Fünf Schritte zur richtigen Big-Data-Technologie

Autor / Redakteur: Martin Hensel / Nico Litzel

Der IT-Dienstleister Adesso zeigt in fünf einfachen Schritten, wie Unternehmen die richtige Big-Data-Technologie finden können.

Firmen zum Thema

Adesso hilft bei der Wahl der richtigen Big-Data-Lösung.
Adesso hilft bei der Wahl der richtigen Big-Data-Lösung.
(Bild: Adesso)

Bei Big Data kommt es laut Adesso nicht nur auf die Technologie, sondern auch auf die jeweilige Strategie an. Ein gewinnbringender Einsatz ist nur dann möglich, wenn der gewünschte Nutzen vorab mit allen Projektbeteiligten eindeutig definiert wurde. Erst nach einer Potenzialanalyse lässt sich die Frage nach der richtigen Technologie beantworten. Das richtige Vorgehen erläutert Adesso in den folgenden fünf Schritten.

1. Anwendungsfälle ermitteln

Im ersten Schritt sollten Unternehmen aus ihrer Strategie, ihren Zielen und ihren Kernkompetenzen ableiten, welchen Mehrwert und welche konkreten Nutzungsszenarien Big Data liefern kann. Firmen aus dem Automotive-Sektor könnten beispielsweise basierend auf Informationen aus den Daten der Steuerungssysteme von Fahrzeugen neue Services ableiten – etwa Ferndiagnosen oder Wartungs- und Verschleißhinweise. Die Definition der tatsächlichen Anwendungsfälle sollte allerdings mit viel Bedacht durchgeführt werden, um Fehlinvestitionen zu vermeiden.

2. Reifegrade überprüfen

Einige Anwendungsfälle können zwar sehr interessant und vielversprechend sein, die benötigten Daten aber noch nicht die erforderliche Reife aufweisen – beispielsweise, wenn Systeme, die Daten liefern, erst neu integriert oder vorhandene Daten bisher nur angesammelt und noch nicht klassifiziert wurden. Auch Aspekte jenseits von Technologien und Daten spielen meist eine entscheidende Rolle für die Bewertung eines Anwendungsfalls: Etwa wie viele Organisationseinheiten beteiligt und wie stark Datenschutzfragestellungen betroffen sind oder wie sehr Compliance-Anforderungen eine Rolle spielen. Durch derartige Hürden könnte ein Big-Data-Vorhaben trotz großem Nutzenpotenzial scheitern. Deshalb ist es sinnvoll, zunächst Projekte anzugehen, die eine kurz- oder mittelfristige Umsetzung ermöglichen. Dazu zählen Vorhaben, für die einerseits eine sicher verwertbare Datenbasis mit einfachem Zugriff vorliegt und mit denen andererseits alle beteiligten Organisationseinheiten gut zusammenarbeiten können.

3. Konsens herstellen

Welche Anwendungsfälle ein Unternehmen umsetzt, sollte unbedingt im Konsens zwischen Fachbereichen und IT-Abteilung entschieden werden. Geschieht dies nicht, ist das Risiko sehr hoch, dass die Fachbereiche andere Vorstellungen und Ziele haben, als die IT dann umsetzt. Gegenseitiges Verständnis und eine enge Zusammenarbeit sind bei Big-Data-Projekten besonders wichtig, vor allem dort, wo die Resultate komplexer maschineller Lernverfahren interpretiert werden müssen. Üblicherweise können nur die Experten aus den Fachabteilungen verstehen und erklären, welche Ergebnisse einer Datenanalyse interessant und relevant sind. Dieser fachliche Input ist höchst relevant für das "Tuning", also die Einstellung später eingesetzter Datenanalyseverfahren.

4. Kriterien ableiten

Stehen die Anwendungsfälle fest, lässt sich daraus ableiten, welche Eigenschaften die eingesetzte Technologie mitbringen muss. So benötigen manche Szenarien eher die Ad-hoc-Abfrage von Daten, andere dagegen bestimmte Aggregationen, erkundende Verfahren oder Verfahren für Vorhersagen oder Empfehlungen. Weitere wichtige Kriterien, die sich aus den Nutzungsszenarien ergeben, sind unter anderem die erforderliche Integrierbarkeit mit existierenden Anwendungen im Unternehmen, die Geschwindigkeit und der Umfang des Datenflusses, die erforderliche Bearbeitungsgeschwindigkeit der Daten oder der richtige Umgang mit den vorhandenen Datenstrukturen.

5. Technologie auswählen

Anhand der so ermittelten Kriterien lässt sich dann gezielt die passende Technologie auswählen. Die heute verfügbaren Datenverarbeitungsplattformen von Hadoop über NoSQL bis hin zu relationalen Datenbanken unterstützen nicht nur unterschiedliche Skalierungsmechanismen, sondern auch unterschiedliche Vorgehensweisen. Ist mit häufiger Veränderung zu rechnen oder ist die Aufrechterhaltung von Diensten auch bei Veränderung besonders wichtig, dann muss die Datenverarbeitung die benötigte Flexibilität mitbringen. Verlangt ein Anwendungsfall besonders hohe Verarbeitungsgeschwindigkeiten, empfiehlt sich In-Memory-Computing. Stehen hohe Skalierbarkeit sowie eine schnelle Speicherung und eine einfache Abfrage riesiger Datenmengen im Vordergrund, spricht das für Key-Value-Datenbanken. Traditionelle relationale Datenbanken sind in diesem Fall dagegen eher nicht geeignet, da sie komplexere Skalierungsmodelle unterstützen und einen hohen Aufwand für den Umgang mit heterogenen oder sich häufig ändernden Daten erfordern. Eine allgemeingültige Regel gibt es allerdings nicht. Die vorhergehende Auseinandersetzung mit den Anwendungsfällen ist deshalb entscheidend.

(ID:43548344)