Kommentar von Thomas Strehlow, Oraylis

Welche Rolle spielt BI in der modernen Datenanalyse?

| Autor / Redakteur: Thomas Strehlow / Nico Litzel

Der Autor: Thomas Strehlow ist Gründer und Gesellschafter der Oraylis GmbH
Der Autor: Thomas Strehlow ist Gründer und Gesellschafter der Oraylis GmbH (Bild: www.photalo.de)

Im Zuge der rasanten technischen Entwicklung werden konventionelle Ansätze der Datenanalyse zunehmend in Frage gestellt. Anlass hierzu geben unter anderem diverse Business-Intelligence-„Mythen“, die sich inzwischen als gültige Wahrheiten verbreiten. Demnach hat beispielsweise das Data Warehouse ausgedient. Auch die Datenqualität scheint durch einen angedachten Verzicht auf Datenmodellierung und Single Point of Truth an Relevanz zu verlieren. Der konkrete Blick in den Projektalltag führt indes ein anderes Bild zu Tage.

Artificial Intelligence (AI), Machine Learning, Realtime, Self-Service – das sind nur einige der Begriffe, um die sich gegenwärtig die Diskussionen im Bereich der Datenanalyse dreht. Dabei erweckt der Hype um neue Technologien und Verfahren oftmals den Anschein, dass das „Althergebrachte“ nunmehr überflüssig sei. So ist Business Intelligence (BI) aus dem Diskurs wichtiger Trends und Themen weitestgehend verschwunden. Und wenn das Gespräch auf diese klassische Form der Datenauswertung kommt, dann wird sie meist als träge und kostenintensiv bezeichnet.

Aber entspricht das den Fakten? Wo haben die Vorurteile ihren Ursprung? Wie ist der Status quo in den Unternehmen? Ist BI tatsächlich ein Auslaufmodell, das für die Datenanalyse der Zukunft irrelevant sein wird? Es lohnt sich genauer hinzuschauen und einige der gängigen Behauptungen – im weiteren auch Mythen genannt – anhand konkreter Projekterfahrungen zu hinterfragen. Zunächst gilt es aber, kurz einige Eckpunkte zu klären und somit ein gemeinsames Verständnis zu schaffen.

Business Intelligence vs. explorative Analyse

Zum Einstieg sei noch einmal kurz erläutert, was wir unter der klassischen BI verstehen: Im Kern handelt es sich um Auswertungen auf Basis historischer Daten, deren Ergebnisse in Reports und Dashboards visualisiert werden. Zu diesem Zweck werden Daten aus diversen Quellen qualitätsgesichert an einem zentralen Ort – dem Data Warehouse (DWH) – integriert und bereitgestellt.

Keine Frage: Im Zuge wachsender Datenmengen und -quellen sowie der neuen technischen Möglichkeiten bekommt das DWH vielfältige Konkurrenz. An seine Stelle treten moderne analytische Plattformen, die meist mit Unterstützung von Cloud-Diensten aufgebaut werden. Diese Plattformen können auch unstrukturierte Daten übergreifend integrieren. Sie lassen sich nach Bedarf erweitern und vereinen verschiedene Themen bzw. Technologien unter einem Dach. Allerdings zeigt sich, dass BI-typische Bausteine weiterhin ein fester Bestandteil der analytischen Plattformen bleiben. Das belegen aktuelle Digitalisierungsinitiativen von Unternehmen. Ebenso betont die BARC in einer aktuellen Grafik die untrennbare Verbindung zwischen der „alten“ und der „neuen“ Datenwelt.

Typischen Aufgabenstellung einer modernen analytischen Plattform: Heterogene Daten aus unterschiedlichsten Quellen liefern über explorative Analysen neue Erkenntnisse, die schließlich im Rahmen der BI operativ nutzbar gemacht werden.
Typischen Aufgabenstellung einer modernen analytischen Plattform: Heterogene Daten aus unterschiedlichsten Quellen liefern über explorative Analysen neue Erkenntnisse, die schließlich im Rahmen der BI operativ nutzbar gemacht werden. (Bild: BARC)

Dem Nutzer mag es oftmals nicht bewusst sein, aber Self-Service- oder AI-Anwendungen liefern ohne qualitätsgesicherte, historische Daten keine belastbaren Analyseergebnisse. Ebenso ist das klassische Berichtswesen aus Unternehmen kaum wegzudenken. Dabei nimmt auch die Anzahl der Mitarbeiter stetig zu, die mit den datenbasierten Erkenntnissen arbeiten. Woher resultiert also der vermeintlich schlechte Ruf der BI? Werfen wir einen Blick auf verschiedene Mythen.

Mythos 1: Datenmodellierung ist nicht mehr erforderlich

Wozu brauchen wir noch eine Datenmodellierung? Diese Frage zu einem der typischen Arbeitsschritte in der BI wird bei dem Aufbau oder der Modernisierung von Analytics-Lösungen immer häufiger gestellt. Dahinter steckt die Befürchtung, dass die resultierende Architektur zu komplex und unflexibel für eine agile Umsetzung neuer Anforderungen ist. Zudem ist die Modellierung und Integration von Daten eine handwerkliche Tätigkeit, die Zeit benötigt und entsprechende Kosten produziert.

Allerdings ist diese Sichtweise stark verallgemeinernd. Ob ein Modell im Kontext eines modernen Analyseumfeldes funktioniert, hängt von diversen Faktoren ab – angefangen bei der Kompetenz von Architekten und Entwicklern. So ist es vielen Akteuren gar nicht bewusst, dass sie einfach auf die falsche Methode setzen. Beispielsweise steht der Aufwand bei der dritten Normalform nach Bill Inmon meist nicht mehr im Verhältnis zum Nutzen. Demgegenüber kann sich eine dimensionale Modellierung nach Kimball auch in einem modernen Analyse-Umfeld durchaus bewähren, da sie einfach, wiederverwendbar und erweiterbar ist. Ebenso gilt es, abhängig von den individuellen Voraussetzungen den richtigen Zeitpunkt für die Modellierung zu bestimmen – sprich: Sollte die Modellierung vor der Datenspeicherung, also „Schema on write“, oder zum Zeitpunkt des Lesens, also „Schema on read“, erfolgen. Nicht zuletzt können handwerkliche Fehler dazu führen, dass eine an sich passende Modellierung nicht den gewünschten Effekt hat.

Fakt ist derweil: Wer sich verlässliche Erkenntnisse wünscht, der kommt um eine Modellierung seiner Daten nicht herum. Ein gutes Modell zählt zu den unverzichtbaren Grundlagen für eine hohe Datenqualität. Das zeigt die Erfahrung aus unzähligen Projekten. Ohne diesen Arbeitsschritt haben analytische Plattformen nicht lange Bestand. Insofern ist eher die Frage, welche Art der Modellierung in einem konkreten Anwendungsfall passend ist – und nicht, ob überhaupt modelliert werden sollte.

Mythos 2: Wer einen Data Lake hat, braucht kein DWH mehr

Mit Big Data hat auch der Data Lake zunehmend Einzug in moderne Analyseumgebungen gehalten. Er dient als Sammelbecken für unterschiedlichste Daten und bildet somit den Ausgangspunkt für explorative Analysen. Damit der Data Lake seinen Nutzern bei diesen Analysen ausreichend Orientierung bietet, werden – ähnlich einem DWH – vorstrukturierte Bereiche angelegt. Diese Vorgehensweise führt bei Unternehmen häufig zu der Annahme, dass der Data Lake gleich das DWH vollständig ersetzen könne.

Allerdings handelt es sich bei DWH und Data Lake um zwei grundverschiedene Konzepte, die jeweils unterschiedliche Nutzerbedürfnisse adressieren. Das DWH legt den Fokus auf eine hohe Prozesseffizienz, wobei die Informationen relativ passgenau für die Anwender aufbereitet werden. Entsprechend gehen hier strukturierte Daten, beispielsweise aus ERP und CRM, in eine Schichtenarchitektur ein. Indes lässt sich die Heterogenität von Big Data über diese Methode nur schwer abbilden. Hier greift das Data-Lake-Konzept: Daten aus ganz unterschiedlich Quellen werden unmittelbar in ihrer Ursprungsform abgelegt. Bewusst werden dabei aufwendige Prozesse der Datenintegration ausgelassen, um zunächst den Wert der Daten zu erforschen und agil neue Anforderungen jenseits des standardisierten Reportings testen zu können. Insofern kann es gar nicht die Zielsetzung eines Data Lakes sein, dass DWH zu ersetzen. Wohl aber können DWH und Data Lake zwei wichtige – und einander ergänzende – Komponenten einer modernen analytischen Plattform bilden.

Mythos 3: Self-Service ist immer kostengünstiger als BI

Self-Service-Werkzeuge sind für die unternehmensweite Datenanalyse zweifelsohne ein Segen. Über nutzerfreundliche Oberflächen ermöglichen sie es dem Fachanwender, selbstständig Daten zu integrieren, Reports und Dashboards zu erstellen oder gar eigene Analyselösungen aufzusetzen. Dies führt häufig zu dem Rückschluss, dass ein Self-Service-Ansatz für Unternehmen stets die kostengünstigere Wahl sei. Schließlich müssen die Daten nicht mehr aufwendig in übergeordnete Strukturen gebracht werden. Vor allem entfallen die langwierigen Kommunikations- und Abstimmungsprozesse mit der IT- oder BI-Abteilung.

Die Praxis zeichnet indes ein anderes Bild. Unternehmen die vollständig ohne Plan und Strategie an das Thema herangehen, klagen spätestens nach ein bis zwei Jahren über einen Wildwuchs an Berichten und Dashboards, gegensätzlichen Daten und inkonsistenten Aussagen. Das bedeutet: Damit ein Self-Service-Ansatz auch mittel- bis langfristig funktioniert, sind vereinheitlichte Strukturen und ein Regelwerk – die sogenannte Self-Service-Governance – weiterhin erforderlich. Ebenso gilt es, laufend Daten zu konsolidieren und Lösungen zu überwachen bzw. anzupassen.

Ein funktionierender Self-Service-Ansatz produziert also über die Software-Lizenzen hinaus durchaus beträchtliche Kosten, sodass hier nicht zwangsläufig von einer günstigeren Alternative die Rede sein kann. Zudem zeigt sich, dass BI-typische Komponenten und Verfahrensweisen unverändert einen wichtigen Beitrag zum Gelingen leisten.

Mythos 4: Wir benötigen keinen Single Point of Truth mehr

Ein echter Benefit der klassischen BI ist der Single Point of Truth (SPOT) – ein zentraler Anlaufpunkt im Unternehmen, wo Anwender unabhängig von den Quellen sämtliche Daten sauber integriert, immer aktuell und in Top-Qualität vorfinden. Auf diese Weise ermöglicht der SPOT unternehmensweit einheitliche Analyseergebnisse. Aber auch dieses Gut wird inzwischen massiv in Frage gestellt, wobei die Gründe ähnlich gelagert sind, wie bei der Datenmodellierung: Es ist schlichtweg eine schweißtreibende Arbeit, den SPOT auf dem aktuellen Stand zu halten. Ob nun Quellsysteme umgestellt oder im Zuge von Unternehmensakquisitionen neue Datenquellen integriert werden müssen: Der SPOT verlangt kontinuierliche Pflege. Infolgedessen erscheint ein solches Konzept vielen Beteiligten als nicht mehr zeitgemäß.

Interessanterweise zeigt die Praxis, dass der Ruf nach der einen Unternehmenswahrheit immer dann wieder lauter wird, wenn die Verantwortlichen diesen Aspekt über einen längeren Zeitraum vernachlässigt haben. Spätestens, wenn widersprüchliche Aussagen zu wichtigen Unternehmensfragen auftreten oder Daten nicht das gesamte Unternehmen widerspiegeln, wird die Notwendigkeit erkannt. So ist aktuell zu beobachten, dass der Single Point of Truth in modernen analytischen Plattformen noch immer seinen festen Platz neben explorativen Data Lakes oder der Echtzeitverarbeitung von Datenströmen findet. Und es ist auch keine Alternative hierzu in Sicht.

Mythos 5: BI ist grundsätzlich alt, langsam und teuer

Es gibt diverse Gründe, aus denen BI als alt, langsam und teuer wahrgenommen wird. Der wichtigste ist sicherlich der direkte Vergleich zur neuen, agilen Analytics-Welt, die Fachabteilungen über Cloud-Dienste und Self-Service-Werkzeuge schnelle Antworten auf akute Business-Fragen ermöglicht. Selbstverständlich kann da eine auf Qualität, Stabilität und Wiederverwendbarkeit ausgelegte „Corporate BI“ nicht mithalten. Aber sollte das überhaupt die Zielsetzung sein? Wir haben bereits festgestellt, dass zuverlässige Kernsysteme für die modernen Ansätze der Datennutzung und letztlich den langfristigen Erhalt einer analytischen Plattform unverzichtbar sind. Insofern ist der Vergleich nicht treffend. Es geht nicht um ein Entweder-oder. Beide Welten haben ihre Berechtigung, und das in ihrer jeweils eigenen Geschwindigkeit. Sie müssen allerdings effektiv miteinander verzahnt werden, etwa im Kontext einer bimodalen BI.

Gleichzeitig ist es nicht von der Hand zu weisen, dass es in vielen Unternehmen veraltete BI-Systeme gibt. Oftmals ist den Beteiligten dies durchaus bewusst. Allerdings mangelt es an Ressourcen, Ideen und letztlich auch an Mut, entsprechende Modernisierungen voranzutreiben. Dabei bieten sich vielfältige Ansatzpunkte etwa bei der Architektur, der verwendeten Technologien oder zugrunde liegenden Prozesse und Vorgehensweisen. Das Resultat ist ein mehr oder weniger umfangreicher Anforderungsstau. Kein Wunder also, dass beim Endanwender der Eindruck entsteht, BI sei prinzipiell langsam.

Fazit

Aktuelle Projekterfahrungen aus diversen Unternehmen und Branchen zeigen, dass BI dort weiterhin durchgängig vertreten ist – und das längst nicht nur in „offensichtlichen“ Bereichen, wie zum Beispiel dem Finanzcontrolling. Sie ist ebenso ein wichtiges Instrument etwa um einen 360-Grad-Blick auf den Kunden zu erhalten oder die Leistungen des Vertriebs detailliert zu analysieren. Und letztlich greifen alle neuen Trends und Hype-Themen auf die qualitätsgesicherten Daten der BI zurück. So erlangen die Akteure mit explorativen Analysen zwar die größere Aufmerksamkeit im Unternehmen. Dennoch ist die BI auch beim Aufbau von modernen analytischen Plattformen – etwa im Kontext umfassender Digitalisierungsinitiativen – nicht wegzudenken. Allerdings werden die entsprechenden Komponenten von den Nutzern mitunter gar nicht als BI wahrgenommen. Womöglich einer der Gründe für den vermeintlichen Abgesang.

Zudem sind gewisse Probleme auf Seiten der BI-Organisationen nicht abzustreiten. Tatsächlich verfügen viele Unternehmen über veraltete Systeme und Vorgehensweisen, wobei oftmals Ratlosigkeit hinsichtlich einer Modernisierung herrscht. Daher ist in tradierten BI-Umgebungen die Unzufriedenheit am größten – und das durchaus berechtigt. Hinzu kommen die Erwartungen der Anwender. Wer beispielsweise ein User-Erlebnis wie bei Amazon voraussetzt, der wird von BI immer enttäuscht sein. BI erfordert Compliance – und die kostet Zeit. Wenn dann auch noch zukunftsgerichtete Digitalisierungsprojekte agil und prototypisch vollkommen neue Möglichkeiten aufzeigen, ist es kaum zu vermeiden, dass BI als „alt“ – oder gar „tot“ – wahrgenommen wird.

BI ist sicherlich nicht mehr der einzige Mittelpunkt der unternehmensweiten Datenanalyse, wie es in früheren Zeiten der Fall war. Vielmehr gehen die entsprechenden Verfahrensweisen und Technologien zunehmend in modernen Konzepten auf, wobei sie einen wichtigen Beitrag zu klassischen wie auch zukunftsweisenden Analysethemen leisten können. Voraussetzung hierfür ist, dass die Bedeutung der BI erkannt und die erforderlichen Investitionen getätigt werden. Insofern mag der Begriff als solcher aus dem aktuellen Diskurs verdrängt worden sein. Die zugrundeliegenden Architekturen, Technologien und Prozesse sind es definitiv nicht.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45928408 / Analytics)