Kommentar von Robert Schmitz, Qlik

Die fünf größten BI-Irrtümer – und wie es wirklich aussieht

| Autor / Redakteur: Robert Schmitz / Nico Litzel

Der Autor: Robert Schmitz ist Area Vice President Southern Europe & Russia bei Qlik
Der Autor: Robert Schmitz ist Area Vice President Southern Europe & Russia bei Qlik (Bild: Qlik)

Daten: das „Gold des 21. Jahrhunderts“ – wirklich? Kommt darauf, denkt vielleicht mancher CEO oder CIO und stellt sich mit gemischten Gefühlen die Datensilos, die jahrelang eingefahrenen Reporting-Prozesse oder die großen Unterschiede zwischen den Fachabteilungen in seiner Organisation vor. Wo anfangen mit einer echten Datenstrategie, die auch Mehrwert generiert und nicht nur Ressourcen frisst? Wer soll den Data Lake überhaupt noch durchdringen, der in immer kürzeren Intervallen immer größer wird?

Und vor allem: Braucht es das eigentlich alles? Um hier etwas Licht ins Dunkel zu bringen, kann ein Blick auf die fünf größten BI-Irrtümer helfen – und auf den Vergleich mit der Wirklichkeit.

Irrtum 1: Ohne strukturiertes Data Warehouse bringt Business Intelligence sowieso nichts

Im Grunde stecken in diesem ersten Irrtum gleich zwei: Nämlich der, dass das klassische Data Warehouse nach wie vor das Maß aller Dinge wäre, um Daten einerseits zu sammeln. Und um sie andererseits vor vornherein so vorzuhalten, dass sie für spätere Analysezwecke sinnvoll abgerufen werden können – wie diese Anforderungen auch aussehen mögen. Zweitens der Irrtum, dass es nur strukturierte Daten wären, die für Analytics-Zwecke in Frage kämen. Sicher: Wer ein gut gepflegtes Data Warehouse hat, kann es natürlich nutzen, um die Informationen für schnelle Data Discovery mit individuellen Dashboards in Analytics-Anwendungen zu laden. Voraussetzung ist das Data Warehouse aber nicht – die Datenintegration moderner BI-Tools hat die jahrelang gültigen Grenzverläufe zwischen Infrastrukturen, Datenformaten und strukturierten, bzw. unstrukturierten Daten weitestgehend überwunden.

Unstrukturierte Daten, die Data Lakes im Vergleich mit Data Warehouses in der Regel ausmachen, vervielfachen die Analytics-Möglichkeiten enorm. Und bieten in der Kombination mit strukturierten Daten und möglichen externen Daten nahezu unbegrenzte Abfragemöglichkeiten, sodass sich geschäftsrelevante Szenarien exzellent untersuchen lassen. Zeitgemäße BI-Software setzt daher auch auf die Verarbeitung von Social-Media-Informationen, Newsfeed-Daten oder Audio-Files – und dies im Idealfall auch über Infrastrukturgrenzen hinweg. So können die Daten zur Analyse dort bleiben, wo sie sind (on-premise oder in der Cloud) und müssen nicht migriert oder zur Datenaufbereitung manuell hin- und herkopiert werden.

Irrtum 2: Ohne teure und rare Data Scientists erkennt man in Daten-Analysen gar nichts

Das stimmt nicht, und zwar aus einem einfachen Grund: Nicht jeder benötigt die gleichen Daten und dieselbe Analysetiefe, um sinnvolle Einsichten für seinen persönlichen Handlungsbereich in einer Organisation zu generieren. Es ist daher sogar sehr sinnvoll, die Datenverfügbarkeit sowie die Abfragetiefe von Analytics-Apps funktions- und rollenbasiert aufzusetzen. Einerseits natürlich aus Compliance-Gründen, andererseits aber auch aus Gründen der Prozessorganisation: Wer gerne mit Daten arbeiten würde, jedoch weder Informationen noch Tools hat, um seine Tätigkeit datenbasiert zu optimieren, wird früher oder später ebenso unzufrieden wie jemand, der von Daten umgeben ist, aber nichts mit ihnen anzufangen weiß.

Der Königsweg ist daher eine praxisorientierte und vor allem passgenaue Organisation der Data Discovery im Unternehmen: vom Außendienst-Mitarbeiter oder Kundenberater, der lediglich einige Realtime-Apps mit seinen wichtigsten Kennzahlen braucht (diese aber dringend!), über den Power User, der selbst Applikationen erstellt und sie teilt oder anpasst, bis hin zum Data Scientist, der vielleicht schon in Richtung prädiktiver Anwendungen denkt und auch mit R-, und Python-Integrationen umgehen kann.

Gewiss ist jedenfalls: Die Mehrheit (85 Prozent) der ausführenden Mitarbeiter ist laut der aktuellen Data-Equality-Studie überzeugt, dass mehr Daten und besseres Datenverständnis beim Erledigen der täglichen Aufgaben helfen würden. Doch gerade sie sind am wenigsten dazu in der Lage: Lediglich 49 Prozent sind der Ansicht, wirklich adäquaten Zugriff auf relevante und hilfreiche Datensätze zu haben, um im Job noch bessere Leistungen zu realisieren. Wohlgemerkt: alles keine Data Scientists. Selfservice-BI ist daher ein großes Thema bei den Herstellern. Und kognitive Systeme unterstützen im besten Fall die Data Preparation ebenso wie intuitive Abfragen und verständliche Visualisierungen.

Irrtum 3: Für wirkliche Big-Data-Projekte braucht man Frameworks wie Hadoop, um der Massendaten überhaupt noch Herr zu werden

Hadoop ist als Framework für Big-Data-Spezialisten, etwa Hortonworks oder Cloudera, bewährt und als Big-Data-Datenquelle sehr gut etabliert. Teradata oder IBM beispielsweise setzen verstärkt auf Integrationen ihrer Database-Produkte mit Hadoop, denn die Kosten für die Speicherung großer und größter Datenmengen sind hier relativ moderat. Bedenkt man, dass es immer mehr Stellen gibt, an denen Daten generiert werden – von IoT-Geräten über Sensoren bis hin zu handelnden Algorithmen – werden diese Datenquellen künftig sicher noch beliebter. Wer sich mit Big Data Analytics befasst, darf aber nicht nur an das reine Daten-Volumen in Terabyte und Co. denken. Vielmehr finden sich in Big-Data-Umgebungen auch immer heterogenere Datenquellen.

Zur Datenintegration in möglichst vollständigen Big-Data-Analytics-Projekten ist es daher nicht nur entscheidend, eine Analytics-Engine zu haben, die auch bei sehr großem Datenaufkommen performant bleibt. Auch mit der immer heterogeneren Landschaft an Datenquellen müssen Daten-Integrationswerkzeuge und Analytics-Tools zurechtkommen. Es kann also durchaus vorkommen, dass Datenquellen direkt in die Analyse eingebunden werden sollen, die nicht unbedingt über die etablierten Frameworks laufen.

Da also neben den wachsenden Datenmassen auch die immer zahlreicheren Datenquellen und -formate die möglichen Kombinationen zwischen Datasets vervielfachen, unterstützen im besten Fall eine assoziative Integrations-Engine sowie ein dezidiertes Big-Data-Indexing den Anwender. Das Indexing macht es anhand von Metadaten möglich, auf dem intuitiven Analyseweg genau jene Daten-Anteile zu laden, die für das aktuelle Abfrage-Szenario jeweils sinnvoll sind.

Irrtum 4: Wir kennen unsere Daten und wissen ohnehin schon alles

Hier liegt vielleicht der größte Irrtum – denn wer weiß schon, was er nicht weiß? Wer sich lediglich auf Excel-Tabellen und die Informationen aus der eigene SQL-Datenbank verlässt, wird nur schwer neue Horizonte in der Auswertung der eigenen Datasets erkennen. Ein besonders faszinierender Gedanke in der Analytics Economy ist es ja gerade, Daten miteinander in Beziehung zu setzen, die auf den ersten Blick vielleicht gar nichts miteinander zu tun haben. Excel-Tabellen mit Sales-Daten? Manuell gepflegte Umsatzzahlen pro Mitarbeiter? Preisentwicklungen verschiedener Zulieferer nach Quartalen? Alles nicht falsch. Werden diese Daten jedoch mit Wetterdaten, soziodemografischen Informationen oder Social-Media-Inhalten gematcht, fangen die Daten an, neue, ungeahnte Geschichten zu erzählen. Und zwar idealerweise in einer Detailtiefe bis auf Artikelebene.

Welches Produkt x macht bei Wetterlage y in den kaufkräftigen Regionen besonders viel Umsatz? Was erwerben Kunden in welcher Menge in Kombination? Wenn Daten nicht allein bleiben, sondern „Gesellschaft“ von anderen – auch und gerade – externen Informationen bekommen, finden sich ungeahnte Antworten auf bislang nicht gestellte Fragen. Das kann entscheidende Wettbewerbsvorteile bringen und macht Unternehmen fit für eine datengetriebene Unternehmenssteuerung. Kurz: Wer meint, seine Daten zu kennen, liegt vielleicht nicht falsch – aber er kennt nur einen Ausschnitt dessen, was die eigenen Daten in Zusammenspiel mit ungezählten weiteren Datenquellen offenbaren können.

Irrtum 5: BI? Lohnt sich doch bestenfalls für Großkonzerne

Datenbasiert seine Geschäftstätigkeit zu optimieren, ist nicht unbedingt eine Frage der Unternehmensgröße. Bester Beweis: Auch im Mittelstand erkennen immer mehr Unternehmen den Wert ihrer Daten und setzen unternehmensübergreifend Data Analytics ein, um zum Beispiel ihre Supply Chain zu optimieren, Predictive-Maintenance-Projekte umzusetzen oder in IoT-Umgebungen die Lagerhaltung von sensiblen Rohstoffen zu steuern. Konkret: Ein mittelständischer Getreide-Verarbeiter, der Müslis, Snackriegel und Getreideflocken herstellt und diese unter der eigenen Marke sowie Handelsmarken vertreibt, verbessert anhand von Realtime-Daten seinen Warenfluss so effektiv, dass kaum mehr Überkapazitäten oder Out-of-Stock-Szenarien auftreten. Ersparnis für das Unternehmen: mindestens 100.000 Euro. Ein regionaler Energieversorger, der Anlagen unter anderem in Deutschland und der Schweiz betreibt, wartet seine Windkraft-Anlagen vorausschauend anhand von Maschinen- und Wetterdaten, um kostspielige Ausfallzeiten zu vermeiden. Und ein mittelständischer Fleisch- und Wurstwarenhersteller behält datenbasiert seine Kühlzellen und -aggregate im Blick, um bei Geräte- oder Stromausfällen keinen Rohstoffverderb zu riskieren. Drei Beispiele, die zeigen: Auch auf KMU-Ebene lohnt es sich, die ganze Geschichte hinter seinen Daten zu kennen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45379336 / Analytics)