Abschalten und ersetzen oder modernisieren? Was wird aus Data-Warehouse-Systemen?

Autor / Redakteur: Ludger Schmitz / Ulrike Ostler

So um die Jahrtausendwende waren Data Warehouses ein richtig heißes Thema. Etliche Unternehmen haben dafür richtig viel Geld in die Hand genommen. Wie sollte man die alten Systeme angesichts neuer Datentypen und Big Data modernisieren?

Firmen zum Thema

(Bild: Rainer Sturm, pixelio.de)

Der Begriff Data Warehouse hat schon einen fast altmodischen Anklang in Zeiten, zu denen alle Welt von Big Data schwadroniert. Dabei ist das, wozu es dient, ja nicht Schnee von gestern: große Datenmengen zentral strukturiert bereithalten und sie möglichst in Echtzeit auswertbar zu machen.

Die Technische Entwicklung stellt neue Herausforderungen

Allerdings haben sich mit der technischen Entwicklung vor allem vier Probleme ergeben: Schon länger gibt es die Erfordernis, neue Datentypen zu integrieren. Hinzu kommt dass die Zahl und Art der Datenquellen zunimmt. Drittens wächst damit die schiere Menge der Daten und in der Folge das Problem der Performanz. Last, not least sollen nicht nur ein paar Topmanager mit Hilfe der IT die Technik nutzen, sondern die Fachabteilungen sollen sich ihrer einfach bedienen können.

Die Lösung dafür scheinen Frameworks wie Hadoop zu sein. Unstrukturierte Daten sind kein generelles Problem. Vor allem lassen sich selbst riesige Datenmengen in den Griff bekommen, indem man sie auf viele Server verteilt und parallel bearbeitet.

Anwender versprechen sich viel von Hadoop

Entsprechend wächst der Markt für solchen Frameworks. Nach dem kürzlich veröffentlichten TDWI-Report „Hadoop for the Enterprise“ wollen 60 Prozent der Befragten schon bis 2016 Hadoop einsetzen. Ein wichtiger Grund besteht darin, dass sich fast alle Befragten von Hadoop ein Potenzial für Innovation versprechen.

Big-Data-Tools stoßen auf großes Interesse. Das zeigen Angaben des Münchener Unternehmens mip GmbH, einem Spezialisten für die Modernisierung von Data-Warehouse-Lösungen. Demnach halten 65 Prozent der Unternehmer Big-Data-Analysen für wichtig, um Entscheidungsprozesse zu unterstützen. 63 Prozent der Anwender versprechen sich von Analyseverfahren einen Wettbewerbsvorteil. 62 Prozent der Fachbereiche wollen Veränderungen im Datenmanagement, weil sie vor gestiegenen Erwartungen stehen. 53 Prozent von ihnen wollen Daten eigenständig bearbeiten können.

Big Data ist nicht "nice and easy"

Doch das Interesse ist auch durch negative Erfahrungen genährt. 51 Prozent der Anwender finden Big-Data-Tools unausgereift und schwierig zu bedienen. 45 Prozent der Unternehmen finden das Festlegen der Analyseregeln schwierig und zeitaufwendig. Das allerdings erinnert an die frühen Data-Warehouse-Zeiten.

Einige Unternehmen habe, so der TDWI-Report „Eight Tips for Modernizing a Data Warehouse“, tatsächlich komplett geschlossen und durch eine Big-Data-Umgebung abgelöst. Es scheint üblich zu werden, Workloads, bei denen sich die Einsatzmöglichkeiten beider Systeme überschneiden, von traditionellen Data-Warenhouse-Systemen zu Hadoop zu migrieren.

Anbieter kämpfen gegen die Abwanderung

Dem drohenden Dammbruch beugen die Anbieter von Data-Warehouse-Lösungen vor. Sie erweitern ihre Produkte. So versuchen sie, den wichtigsten Kundenwünschen entgegen zu kommen, um nicht ihre Einnahmequellen versiegen zu sehen. Tatsächlich, so der TDWI-Report, besteht in fast allen Anwendungsfällen die Notwendigkeit, das Data Warehouse zumindest zu modernisieren. Das bedeutet Software-Upgrades, funktionale Zusätze, neue Integrations-Tools sowie mehr und schnellere Server und Speichersysteme.

Bei der Modernisierung sollten Anwender allerdings einige generelle Grundlagen und Veränderungen beachten, die sich in den letzten Jahren ergeben haben. Aus den acht TDWI-Tipps lassen sich vier solcher Aspekte destillieren:

Vier grundlegende Hinweise

1. Das Ganze muss dem Unternehmensgeschäft dienen. Es ist nur scheinbar von Wert, aus vielen neuen Quellen wie Web-Anwendungen, mobilen Geräten, Social-Media-Kanälen oder dem Internet of Things massenhaft Daten zu schöpfen. Die neuen Plattformen müssen sie auch buchstäblich „auswerten“ können – und die User diese bedienen.

2. Die analytischen Methoden ändern sich. Die große Zeit von Statistik-Gurus und Analysten-Intuition scheint passé zu sein. Es gibt neue Analysemethoden, die zum Beispiel mit Natural Language Processing, NLP ist die verbreitete Abkürzung, das Mining, Statisiken und Voraussagen erleichtern.

3. Echtzeit muss ein. Die Techniken für Echtzeitanalysen gibt es seit Jahren, aber sie werden wenig genutzt. Hier gilt es, die Systeme zugleich an größere Datenmengen, neue Datentypen und nicht zuletzt an eine größere Zahl von Nutzern anzupassen.

4. Open Source dominiert die Entwicklung. Vor zehn Jahren gab es im Data-Warehouse-Feld nur Linux als Betriebssystembasis. Inzwischen stellt TDWI Open-Source-Anwendungen für Reporting, Analysen, Datenintegration, Big-Data-Management etc. fest. Die bieten außerdem preisliche Vorteile.

Das klassische Data Warehouse ergänzen

Es gibt, so der TDWI-Report, durchaus Potenziale zur Modernisierung von Data Warehouses. Aus diesem Grunde dürften neue Techniken wie Hadoop das Data Warehouse nicht schnell verdrängen. „Es geht nicht um einen Ersatz für das klassische Data Warehouse, sondern um eine Ergänzung, die es ermöglicht, auch große Mengen an unstrukturierten Daten zu speichern und zu verarbeiten“, erklärt Markus Ruf, Geschäftsführer der mip GmbH. "Hadoop wird diejenigen Workloads übernehmen, für die es besser geeignet ist."

* Ludger Schmitz ist freiberuflicher Journalist in Kelheim.

(ID:43415731)