Suchen

Schöne neue BI-Welt Keine bunten Bilder ohne Backend

| Autor / Redakteur: Thomas Strehlow / Nico Litzel

Bunt, einfach und für alle verfügbar – so sieht nach Aussage von Anbietern und deren Marketingabteilungen die Zukunft der Business Intelligence (BI) aus. Beim Parforceritt durch die Trends werden aber einige Entwicklungen vernachlässigt. Mitunter zum Nachteil der anwendenden Unternehmen.

Firma zum Thema

Der Erfolg eines BI- oder Big-Data-Projektes hängt stark von der Expertise der Beteiligten ab. ORAYLIS verfügt daher über ein eigenes Vorgehensmodell, dass mit einer klar strukturierten Kombination aus Best-Practice-Methoden und darauf abgestimmten Werkzeugen sicher durch jedes Projekt führt.
Der Erfolg eines BI- oder Big-Data-Projektes hängt stark von der Expertise der Beteiligten ab. ORAYLIS verfügt daher über ein eigenes Vorgehensmodell, dass mit einer klar strukturierten Kombination aus Best-Practice-Methoden und darauf abgestimmten Werkzeugen sicher durch jedes Projekt führt.
(Bild: ORAYLIS)

„Data Integration“ als BI-Trend? Wie verträgt sich das mit dem aktuellen Branchen-Diskurs, der sich immer nur um Schlagworte wie „Self-Service“, „Collaborative“ oder „Predictive“ dreht? Vor allem im Backend-Bereich gibt es eine Reihe von Entwicklungen, die für zukunftsorientierte BI- und Big-Data-Lösungen unabdingbar sind. Neben dem eingangs genannten Beispiel zählen hierzu das Datenqualitätsmanagement sowie agile Vorgehensweisen. Warum aber werden derlei Themen häufig unterschlagen?

Der Hauptgrund dürfte in der Komplexität der betreffenden Methoden und Technologien liegen. Sie können nicht über bunte Bilder und direkt greifbare Analyseergebnisse vermarktet werden. Oder anders gesagt: Mit ihnen lassen sich nicht so ohne weiteres die Fantasien und Begehrlichkeiten von Fachabteilungen und Management wecken.

Indes müssen sich die anwendenden Unternehmen vergegenwärtigen: Wenn sie diese Themen nicht angemessen wahrnehmen, dann wird auch aus der allerorts gepriesenen, „schönen neuen Analyse-Welt“ nichts. Daher sollen im Folgenden einige dieser vernachlässigten Trends näher beleuchtet werden.

Datenintegration lebt von Erfahrung

Die Relevanz der „Data Integration“ lässt sich bereits am Aufwand messen: Rund zwei Drittel eines BI-Projektes entfallen auf die Zusammenführung der meist inhomogenen Quellsysteme in einer zentralen Datenbank. Neben der reinen Umsetzung zählen hierzu Aufwände für das Management der Daten wie auch die Störungsbeseitigung.

Dabei ist eine klare Strategie hinsichtlich der verwendeten Tools besonders wichtig. Denn: Die Handlungsspielräume bei der Implementierung sind groß. Datenmanagement, Wiederanlaufphasen sowie Betriebs- und Qualitätsüberwachung werden durch die Tools nur bedingt vorgegeben. Letztendlich entscheiden Best Practices als Resultat umfangreicher Praxiserfahrung über den Erfolg. Diese Expertise ist innerhalb eines Unternehmens nur selten vorhanden. Insofern ist es ratsam, auf das Know-how externer Berater zurückzugreifen.

Datenqualitätsmanagement sorgt für haltbare Aussagen

Ähnlich verhält es sich mit dem Datenqualitätsmanagement, einem weiteren, häufig unbeachteten Trendthema für moderne BI-Umgebungen. Auch hierbei handelt es sich im Wesentlichen um einen Prozess, der von Best Practices lebt und bereits zum Projektstart implementiert werden sollte. Schließlich steigt mit der Zahl der Quellsysteme auch das Potenzial für Datenfehler. Dass eine hochwertige Datenqualität ein erfolgsentscheidendes Fundament für derlei Projekte darstellt, mutet indes schon fast trivial an: Mängel in diesem Bereich ziehen alle gewonnenen Erkenntnisse in Zweifel. Dies wiederrum führt zu irreparablen Vertrauens- und Akzeptanzverlusten im Unternehmen. Gleichzeitig sind Änderungen bzw. Korrekturen, die im Nachhinein vorgenommen werden, mit einem großen Aufwand und entsprechend hohen Kosten verbunden.

Agil zum Ziel

Nicht zuletzt muss ein BI-Projekt der Dynamik moderner Märkte gerecht werden – sprich: Im Rahmen der Entwicklung sollte man schnell auf Änderungen reagieren und entsprechende Anpassungen vornehmen können. Wie zahllose Projekte der Vergangenheit zeigen, sind sequentiellen IT-Methoden hierfür ungeeignet.

Jüngstes Beispiel aus einem Audit: Ein ursprünglich auf drei Monate angelegtes Projekt nahm letztlich elf Monate in Anspruch. Dies hatte nicht nur hohe Mehrkosten zur Folge. Da der beauftragte Dienstleister die Entwicklung komplett auslagerte, wurden die Fachanwender nur unzureichend eingebunden. Am Ende präsentierte man eine Lösung, die dem aktuellen Stand des Geschäftes nicht mehr entsprach und somit keinerlei Akzeptanz im Unternehmen fand – ein Schaden, der in Zahlen kaum mehr zu beziffern ist.

Die komplexen Anforderungen eines BI-Umfeldes lassen sich also niemals in aller Vollständigkeit planen. Infolgedessen haben sich inzwischen agile Entwicklungsmethoden fest etabliert. Hierbei arbeiten externe Experten unmittelbar Vorort mit den Fachbereichen zusammen. Bereits nach kurzer Zeit liegt ein erster Prototyp mit den wichtigsten Basisfunktionalitäten vor. Weitere Anforderungen werden dann schrittweise ergänzt. So hat der Kunde den aktuellen Entwicklungsstand stets im Blick und kann spontan Anpassungen mit Blick auf die aktuelle Wettbewerbssituation vornehmen. Am Ende steht ein für alle Beteiligten optimales Ergebnis.

Fazit: BI wird nicht einfacher

Zu den größten Fehlinterpretationen der aktuellen Trend-Diskussion zählt sicherlich, dass BI laufend einfacher wird. Mit Blick auf den Anwender mag das zutreffen, nicht aber hinsichtlich der zugrundeliegenden Prozesse und Technologien. Diesbezüglich sehen sich die Unternehmen mit einer immer größeren Komplexität konfrontiert.

Durch Big Data wachsen nicht nur das Datenvolumen sowie die Anforderungen an die Geschwindigkeit bei der Verarbeitung und Speicherung. Zudem sind die Verantwortlichen gefordert, ganz neue Datenquellen in ihr vorhandenes BI-Umfeld zu integrieren. Die über viele Jahre etablierten Data-Warehouse-Lösungen sind dafür nicht ausgelegt und geraten entsprechend schnell an ihre Grenzen. Genauso wenig wird eine Unternehmensführung das Personal analog zum Datenvolumen aufstocken.

Daher sollte bei der Optimierung der unternehmenseigenen BI zunächst weniger der Fokus auf den neuesten Tools für die Analyse und Visualisierung der Datenbestände liegen. Viel wichtiger ist es, sowohl in technologischer als auch organisatorischer Hinsicht eine stabile, zukunftsorientierte Basis zu verankern. Erst dann wird es auch was mit den schönen bunten Bildern.

(ID:43517936)