Kommentar von Christian Schneider, QuinScape Warum man nicht einfach Self-Service BI machen kann

Autor / Redakteur: Christian Schneider / Nico Litzel

Der Nutzen von Self-Service BI ist unbestritten. Trotzdem sank seine Relevanz im BARC-Trendmonitor von Platz 2 im Jahr 2017 auf Platz 5 im Jahr 2020. In Hinblick auf streckenweise gescheiterte Self-Service-BI-Projekte und den versteckten Hürden zum Erfolg ist dieser Trend nicht verwunderlich.

Firmen zum Thema

Der Autor: Christian Schneider ist D&A Division Manager bei QuinScape
Der Autor: Christian Schneider ist D&A Division Manager bei QuinScape
(Bild: QuinScape)

Allerdings dürfen wir das nicht als Scheitern begreifen, denn das Thema „Data Driven Culture“, die Transformation zum datengetriebenen Unternehmen, macht einige Disziplinen aus dem Self-Service BI umso wichtiger. Daher lohnt sich ein Blick auf gern gemachte Fehler, denn diese werden uns auf dem Weg zur Data Driven Culture immer wieder begegnen:

  • Nutzer der Self-Service BI nicht als „Kunden“ behandeln: Ein Unternehmen ist bereits kundenzentriert aufgestellt, löst die Probleme der Kunden perfekt und ist deswegen so erfolgreich? Dann sollte es diese Kultur auch intern auf die Nutzer der Self-Service BI übertragen.
  • Self-Service ist nicht Self-Learning: Der mit Abstand größte Fehler in der Praxis ist, im Umgang mit Self-Service BI nicht zu schulen. Die Qualität der Ergebnisse steigt mit der Ausbildung der Mitarbeiter. Das mit der Einführung von Self-Service BI angestrebte Ziel muss erklärt werden und die Methode muss geschult werden, um effektiv zu wirken.
  • Self-Service ohne Support: Nur, weil Nutzer bzw. Mitarbeiter bei einer Schulung waren, bedeutet das nicht, dass sie nun das Potenzial eines Self-Service nutzen werden. Man denke an die eigene letzte Schulung zurück. In der Schulung war noch alles klar, eine Woche später muss man vieles noch mal nachlesen. Ein Self-Service ist ein Service-Angebot. Ein Service-Angebot muss immer einen Support haben.
  • Self-Service ist kein abgeschlossenes Projekt: Die Self-Service BI hat einen Lebenszyklus. Das ist kein abgeschlossenes Projekt. Den Quality of Service sollte man zu jedem Zeitpunkt im Blick haben und ein Änderungsmanagement etablieren. Wenn die Daten über die Zeit degenerieren, indem sie nicht mehr aktuell sind, die neuen Produkte nicht auffindbar sind, immer mehr Fehler gefunden werden, dann verliert man zuerst das Vertrauen und dann die Nutzer.
  • Make it easy: Das Serviceangebot muss – wie Produkte oder Dienstleistungen für Kunden – einfach zu verstehen und einfach zugänglich sein, damit es gern genutzt wird. Das ist einfach gesagt, benötigt aber viel Erfahrung. Und es fängt mit der Authentifizierung an. Muss ich ein Kennwort eingeben oder bin ich per Single Sign on bereits authentifiziert – und das ist die einfachste Hürde, die man nehmen muss.

Warum man Self-Service BI nicht mit jeder Architektur machen kann

Je reibungsloser der Zugang zu den benötigten Daten ist, umso eher lässt sich mit den begleitenden Schulungsmaßnamen die Begeisterung zur Nutzung der sich bietenden Vorteile wecken. Im Kern stehen hier zwei Anforderungen, die sich sehr ähnlich lesen, in ihrer Natur jedoch deutlich voneinander unterscheiden:

  • Bereitstellung von benötigen Daten für den Analysten: Für die Mitarbeiter, die Self-Service BI für ihr Tagesgeschäft nutzen, darf es nicht hinderlich sein, diese zu nutzen. Die Daten müssen schnell, korrekt und vollständig verfügbar sein und für den Nutzer einen Mehrwert für sein Tagesgeschäft darstellen. Dafür muss die Infrastruktur mit konstanter Performance lieferfähig sein und Möglichkeiten bieten, die Datenqualität sicherzustellen. Genau hierfür gibt es passende architekturelle Ansätze.
  • Integration von benötigten Daten für die Self-Service BI: Haben Sie es mit einem klugen Einführungsprojekt geschafft, Mitarbeiter von den neuen Möglichkeiten des Self-Service BI zu begeistern? Dann lassen die ersten Anfragen nach Erweiterung der Datensets und weiteren Quellen nicht lange auf sich warten. Wenn man nun zwei Monate braucht, um eine Entscheidung zu treffen und um die Daten mühevoll bereitzustellen, dann wandelt sich die Begeisterung der Nutzer schnell in Enttäuschung. Zudem verliert man die Innovationstreiber, die eigentlich schon „an Bord“ waren. Eine schnelle und klare Entscheidung zu treffen, bedeutet Verantwortlichkeiten, Prozesse und die Semantik der Daten parat zu haben. Hier tauchen wir in die Welt der Data Governance ein, die aber den Rahmen dieses Artikels sprengen würde. Für eine schnelle Datenintegration und Bereitstellung auf technischer Ebene brauchen man mehr denn je die Agilität von LogicalDataMarts und änderungsfreundlichen Datenmodellen. Ansonsten tauchen neben der Self-Service BI schnell lokale Lösungen auf, in denen die Daten mehr oder weniger aktuell – aus welcher Quelle auch immer – hinzugeladen werden.

Diese Beispiele verdeutlichen, dass Self-Service BI wie jedes Datenintegrationsprojekt geplant werden muss. Es muss Teil Ihrer Datenstrategie sein.

Im Folgenden möchten wir einen Auszug aus unserer Checkliste vorstellen. Mit diesem lässt sich hinterfragen, wo ein Unternehmen steht:

Vertrauenswürdige Daten – Data Warehouse (DWH)

Die Quelle von vertrauenswürdigen Daten ist nach wie vor ein DWH. Für ein DWH sind bereits alle Mechanismen wie Historisierung oder Qualitätssicherung durchdacht und gelöst. Wir erleben in unseren aktuellen DWH-Modernisierungs¬projekten einen Trend der Agilität durch Modellierung von Data Vaults, die das Fundament für ein weiteres wichtiges Handlungsfeld in modernen Datenarchitekturen sind:

  • Agilität – Data Virtualization: Der Service-Gedanke gegenüber dem Nutzer einer Self-Service BI ist von zentraler Bedeutung. Schnell neue Anforderungen verstehen und umsetzen, muss ein integraler Bestandteil einer modernen Datenarchitektur sein. Und hier spielt die Data Virtualization ihren Mehrwert aus. Virtual Data Marts sind die Grundlage für BizDevOps im Datenumfeld und aufgrund der inhärenten Agilität hervorragend für ein iterative Integration geeignet.
  • Daten verstehen – Data Catalog: Die Bereitstellung von neuen Datenquellen ist mit einer auf Agilität optimierten Architektur sehr effizient möglich. Es verbleibt die Frage, welche Semantik die Daten wirklich haben, ob sie einen Schutzbedarf aufweisen und somit nicht ohne Weiteres bereitgestellt werden können. Ein Data Catalog wird mit der Erschließung jeder neuen Datenquelle wichtiger, um die Übersicht zu behalten und um die hohe Qualität und Integrität Ihres Self-Service BI sicherzustellen.
  • Schneller skalieren – Cloud Data Platform: Eine der größten Herausforderungen ist die konstante Leistung der Datenquelle. Damit befinden wir uns im Dilemma eines Rechenzentrums. Entweder wird ein Servercluster für die denkbar mögliche Lastspitze dimensioniert und fährt ansonsten wahrscheinlich unter Potenzial. Oder es wird unterdimensioniert und man nimmt Engpässe bei Lastspitzen in Kauf. Ein klassisches Szenario sind hier Monatsenden, Quartalsenden und das Ende des Geschäftsjahres als „worst-case“. Eine Cloud Data Platform erzeugt nutzungsabhängige Kosten und stellt Performance in dem Moment zur Verfügung, wenn sie gebraucht wird.
  • Daten-Strategie – Data Governance: Wenn Sie feststellen, dass Sie einen Data Catalog benötigen, eine Landkarte ihrer Daten, dann werden Sie sich auch mit Prozessen, Verantwortungen und formalen Regelungen auseinandersetzen müssen, wenn Sie weiter handlungsfähig bleiben wollen.

Alles gleichzeitig zu machen, ist ein Mammutprojekt und man wird scheitern. Aber alle Fragmente einer guten Datenstrategie lassen sich iterativ in das Tagesgeschäft einbinden und zu einem Best-in-class-Data Management formen, wenn Sie es in der richtigen Reihenfolge angehen.

Diese Reihenfolge ist immer individuell und es braucht eine Menge Erfahrung, da es auch etliche falsche Reihenfolgen gibt und was als selbstverstärkender Mechanismus gedacht war.

Warum man Self-Service BI nicht ohne Strategie machen kann.

In einer Studie von Forrester und KPMG gaben nur 35 Prozent der Befragten an, dass Sie der Analytik des eigenen Unternehmens vertrauen. Das auch in vielen anderen Domänen neben der Analytik bekannte Phänomen des „Trust Gap“ ist einer der größten Verhinderer von Eigeninitiative, Kreativität und Erkenntnisgewinnen: Wenn der Korrektheit der Grundlagen nicht vertraut werden kann, wieso sollte jemand dann Zeit investieren, damit zu arbeiten.

Vertrauen entsteht in erster Linie durch Verbindlichkeit und Transparenz, also primär dadurch, wie eine Datenstrategie in einem Unternehmen gelebt wird. Der kulturelle Umgang mit Daten – ähnlich wie bei unterschiedlichen Führungsstilen – ist ein wichtiger Faktor auf dem vieldiskutierten Weg der Demokratisierung von Daten. Eine Datenstrategie muss aktiv durch das Management geführt, verantwortet und gelebt werden.

Häufig sind folgende Themen in Unternehmen nicht richtig adressiert:

  • Verantwortlichkeit: Gibt es eine zentrale Person, die für die Daten oder eine Datendomäne verantwortlich und erreichbar ist? Kann diese Person zu den nachfolgend aufgeführten Themen verbindlich Auskünfte erteilen? Wenn diese Person fehlt: ... gibt es keinen Ansprechpartner, der Unsicherheiten ausräumen kann. Im Zweifel wird den Daten nicht vertraut und sie bleiben ungenutzt.
  • Nachvollziehbarkeit und Übersicht: Aus welcher Quelle stammen die Daten? Gibt es Filter, die bestimmte Daten herausfiltern? Gibt es Aggregationen und wie sehen diese aus? Wenn diese fehlen: … kann ein Analyst vielleicht durch Quervergleiche mit anderen Quellen oder Daten die Korrektheit nachvollziehen. Das kostet aber Zeit, Geld und erzeugt Frust. Wer zu lange sucht, gibt auf.
  • Datensicherheit: Wie ist der Umgang mit personenbezogenen Daten im Unternehmen geregelt? Wie wird mit sensiblen Daten umgegangen? Gibt es eine verbindliche Regelung? Wenn sie fehlt: Wenn Daten mit einem besonderen Schutzbedarf zufällig oder ungeregelt einsehbar sind oder Zugänge nicht zeitlich oder fallbezogen beschränkt werden, entsteht Unsicherheit.
  • Verfügbarkeit und Vollständigkeit: Kann ich jederzeit auf alle Daten zugreifen? Wie aktuell sind die Daten? Ist die Datenmenge vollständig oder sehe ich eine Teilmenge? Wenn diese fehlen: Ein Analyseexperte wird inkonsistente Daten aus der Erfahrung heraus erkennen, ein Endanwender ist hierfür nicht ausgebildet und muss auf die Vollständigkeit vertrauen.

Wer also versucht durch einen Self-Service-Ansatz die Analytics- und IT-Experten vollständig einzusparen, ist bereits in diesem Moment gescheitert.

Self-Service muss Teil einer gesamten Daten-Kultur sein, die sich in den Prozessen beim Umgang mit Daten etablieren muss. Am Wenigsten kann man hier also auf Experten verzichten, die genau die Anker dieses Vertrauens repräsentieren.

Fazit

Die Einführung von Self-Service BI kann nur gelingen, wenn fachliche Endanwender, technische Experten und ein überzeugtes Management gemeinsam eine Kultur schaffen, die das notwendige Vertrauen in die Daten und das Verständnis für die Daten schaffen. Letztlich entscheidet die Erfahrung bei der Einführung von datenzentrischen Prozessen auf allen Ebenen über den Erfolg eines Self-Service BI.

Aus unser Projekterfahrung sind die technischen Herausforderungen mit geeigneten Architekturen und Plattformen sehr gut beherrschbar, die Komposition der technischen Möglichkeiten mit der sauberen Orchestrierung der notwendigen Prozesse bedarf jedoch ungleich mehr an Erfahrung, um erfolgreich zu sein.

(ID:47515090)