Suchen

Evolution Der Übergang von Business Intelligence zu Advanced Analytics

| Autor / Redakteur: Michael Matzer / Nico Litzel

Wenn einem BI-Nutzer Reports und Dashboards nicht mehr reichen, wird es Zeit für Prognose-Tools, die in den Disziplinen Advanced Analytics (AA) und Data Science zu finden sind. Doch AA-Modelle sind nur von begrenztem Wert, wenn man sie nicht in die Prozesse integriert. Wie der Übergang von BI zu AA gelingen kann, zeigt ein Webinar von BARC-Experte Timm Grosser.

Firmen zum Thema

Operationalisierung von Advanced Analytics bedeutet die Überführung und Anwendung der aus dem Data Lab gewonnenen Erkenntnisse in die operativen Prozesse.
Operationalisierung von Advanced Analytics bedeutet die Überführung und Anwendung der aus dem Data Lab gewonnenen Erkenntnisse in die operativen Prozesse.
(Bild: BARC, Tim Grosser)

Mit Reports und Dashboards schaut ein BI-Nutzer quasi in einen Rückspiegel: Er sieht, was bereits geschehen ist. Diese Einsichten und Berichte liefert das Data Warehouse, das sie in industrialisiertem Maße kostenoptimiert bereitstellt. Discovery-Werkzeuge wie Qlik oder Tableau ermöglichen das Aufspüren weitergehender Trends, insbesondere aus unstrukturierten Daten, die in zusätzlichen Datenspeichern, etwa in Data Lakes, gesammelt werden.

Allerdings wollen Nutzer aufgrund dieser Einblicke auch planen und handeln, etwa um Einsparpotenziale auszunutzen oder Wettbewerbsvorteile zu erzielen. Timm Grosser, Senior Analyst Data & Analytics beim BARC-Institut, sieht die Kluft zwischen Erkenntnisgewinn und dem Handeln als die Kluft zwischen Labor und tatsächlicher Anwendung in den operativen Systemen. Denn erst die Anwendung der Erkenntnisse in den Prozessen führe zu Nutzen aus Daten wie etwa Chancen zur Automatisierung, schnellere und umfangreichere Kundenbetreuung durch mehr Daten und Wissen über Kunden. Nun gelte es, sie mit Einsichten in Echtzeit zu unterfüttern. Grosser nennt das Anwenden der Erkenntnisse auf Aktionen die „Operationalisierung“ von BI und Analytics.

Advanced Analytics

Ein Data Warehouse arbeitet sehr effizient, wenn es strukturierte Daten verarbeiten kann, die etwa aus relationalen Datenbanken und aus SQL-Abfragen kommen. Doch die Welt bleibt nicht stehen, sondern liefert Massen von semi- bzw. unstrukturierten Daten, die für das Unternehmen wertvoll sein können, weil sie von den Kunden und aus der realen Umgebung kommen: Weblogs, Texte aller Art, Standortdaten, menschengenerierte Daten, aber auch maschinengenerierte Daten aus Sensoren, Endgeräten, Fahrzeugen und vielem mehr. Um sie zu verarbeiten, wird neben dem Data Warehouse häufig ein Data Lake angelegt, der aber bewirtschaftet werden sollte. Dieser ist in der Regel speziell für die Datenspeicherung in einem Data Lab konzipiert, um Advanced Analytics zu unterstützen.

Das Datenlabor

Das Data Lab arbeitet im Unterschied zum Data Warehouse wertorientiert. Oberstes Ziel ist es, Wert aus Daten zu generieren. Dafür sind im Gegensatz zum Data Warehouse andere Ansätze notwendig, um den Wert in den Daten überhaupt entdecken und erforschen zu können. In welche Richtung geforscht wird, legen meist die Unternehmensleitung oder ihre Fachbereiche fest. So können Informationen interessant sein, die eine Bestellhistorie und einen Standort umfassen, um einem Kunden eine Kaufempfehlung in Echtzeit auf sein Handy zu schicken: ein neuer Prozess, um Wertschöpfung zu generieren.

Das Data Lab liefert also neue Einsichten. Diese stehen im Vorfeld – im Gegensatz zu einer konkret berechneten Kennzahl (KPI) in einem Data Warehouse – noch nicht fest. Um diese zu erkunden, bedarf es Freiräume und neuer Methoden, wie etwa das Versuch-und-Irrtum-Verfahren, explorative Analysen sowie Iterationen, um aussagekräftigere Ergebnisse zu erhalten. Daher muss das Data Lab sehr agil und flexibel aufgebaut sein, was sich in den AA-Tools widerspiegeln sollte.

Neue Kombination

Nach Ansicht von Timm Grosser erlaubt die Kombination von AA-basiertem Data Lab, der DW-basierten Info-Factory und der operativen Prozesse neue Anwendungsfälle und Einsatzbereiche, etwa im Internet der Dinge. Dazu gehört etwa Predictive Maintenance und die Optimierung von Service- und Produktqualität. Diese Use Cases sind datengetrieben. Sie laufen systemübergreifend ab, was einen Umbau der IT-Infrastruktur und/oder die Erweiterung der Integrationstechnologien erforderlich machen kann. Zudem müssen die Use Cases auf einer skalierbaren IT-Infrastruktur aufbauen, damit auch Spitzen wie etwa im Weihnachtsgeschäft oder am Cyber Monday noch Bestellungen verarbeitet werden können.

Neue Strategie

Um die Anwendungsfälle realisieren zu können, ist eine neue oder erweiterte Strategie des Unternehmen angebracht: Wenn das Data Lab neue Einsichten liefert, ist für ihre rechtzeitige Integration in Prozesse Flexibilität nötig. Dafür braucht es einen Leitfaden, da hier unterschiedliche Bereiche mit ihren eigenen Systemen, Methoden, Systemen und mehr aufeinandertreffen. Eine Strategie wird benötigt, die übergreifend die Aktivitäten steuert, um aufgrund von Daten im Sinne der Geschäftssteuerung handeln zu können.

Die bewusste Steuerung und Planung von Daten im Sinne der Geschäftsstrategie ist eine Datenstrategie. Eines der Instrumente zur Umsetzung einer Datenstrategie ist die Data Governance. Eine Data Governance sieht Rollen vor, die helfen, die Voraussetzungen für die Kollaboration zwischen den Bereichen zu schaffen, welche die Data- und Analytics-Kompetenz treiben sowie die Erstellung und Verwendung von Daten steuern helfen. Kollaborationswerkzeuge ergänzen die Operationalisierung auf der organisatorischen Ebene.

Produzenten und Verbraucher

Das datengetriebene Unternehmen besteht aus zwei Mega-Rollen. Auf der einen Seite stehen die Datenproduzenten wie etwa Prozesseigner in Fachbereichen. Sie erzeugen Daten sowie die dazugehörigen Metadaten. Metadaten beschreiben Daten. Aus ihnen ziehen Nutzer Wissen über Daten. Dieses Wissen kann in einem Repository oder Data Catalog gespeichert werden, um es auffindbar und verfügbar zu machen.

Auf der anderen Seite stehen die Datenkonsumenten, die eigentlichen Datennutzer. Sie benötigen Wissen über Daten (Metadaten), um Daten verstehen, beurteilen und richtig anwenden zu können. Aufbereitet und ausgewertet werden die Daten von analytischen Rollen wie etwa Data Engineers, Data Scientists, Power Usern oder Business-Analysten. Sie benötigen einerseits Metadaten zur Aufbereitung und Analyse. Auf der anderen Seite stellen sie ebenfalls Metadaten bereit: Informationen zu Metriken (KPIs) und Modelle für Analysen und Vorhersagen, etwa für Predictive Maintenance.

Datenkatalog

Ein Data Catalog verwaltet Daten nicht nur übersichtlich, sondern stellt die „Gelben Seiten“ der unternehmensrelevanten Daten für alle Nutzer im Unternehmen dar. Er konsolidiert das Wissen über Daten aus den Systemen und bietet eine Plattform, um technisches Wissen mit fachlichem und organisatorischem Wissen anzureichern, etwa indem er technische Tabellen mit Fachbegriffen verknüpft und um die verantwortlichen Ansprechpartner erweitert.

Generischer Ablauf für Advanced Analytics

Um wirklich Nutzen aus der AA-Nutzung zu ziehen, sollte auch die Implementierung einem Plan folgen, der die notwendige Operationalisierung von Einsichten ermöglicht und fördert.

Wesentlich ist laut Grosser Folgendes:

Es gibt eigentlich drei wesentliche Komponenten im Ablauf:

  • 1. Kreative Arbeit mit Daten und Generierung von Modellen
  • 2. Die Überführung der Erkenntnisse (der Modelle) in den operativen Betrieb (Operationalisierung)
  • 3. Der operative Betrieb der Modelle

Phase 1: Zu den Aufgaben gehört es, Daten anzuzapfen, aufzubereiten, zu analysieren und zu modellieren sowie zu validieren, mit der Zielsetzung der Erstellung eines Minimum Viable Product (MVP).

Phase 2 umfasst die Überführung dieses Modells in den operativen Betrieb. Dafür braucht der Nutzer eine Vorstellung, wie dieses entdeckte Modell fachlich und technisch zu integrieren ist. Er muss sich also Gedanken dazu machen, in welchen Anwendungsfällen das Modell unterstützend wirken kann (d. h., in welchen Prozessen für einen profitablen Business Case).Wie sind die Prozesse anzupassen (organisatorisch, technisch), damit das Modell implementiert werden kann? In welchen Schritten muss der Nutzer hier vorgehen und wie muss er dies technisch gestalten. Das Ergebnis unterliegt einem Integrationstest: „Kommt am Ende des Tages auch das Richtige raus?“

Phase 3 umfasst zunächst das Monitoring: Läuft das erstellte AA-Modell wie vorgesehen? Bekommt es die richtigen Daten, generiert es die richtigen Daten? Es gilt nachzuprüfen, ob der Output noch gut genug ist, denn schließlich ändern sich Daten mit der Zeit. Schließlich sind Optimierung bzw. Retraining des Modells nötig, also die regelmäßige Kontrolle und Anpassung des Modells, damit es valide bleibt.

Anforderungen an eine AA-Lösung

Wert aus Daten entsteht im Handeln aus Daten.
Wert aus Daten entsteht im Handeln aus Daten.
(Bild: BARC, Tim Grosser)

Die Anforderungen an eine Technologieplattform für ganzheitliche AA-Lösungen umfassen also das Data Lab (zwecks Datenerfassung und -modellierung), die Operationalisierung von AA überall im System, interdisziplinäre Kollaboration, den Betrieb der AA-Analytik und last, but not least, die Berücksichtigung von Data Governance, Compliance und Regulatorik sowie die Sicherstellung der Datenqualität.

Zu den Trends zählt der BARC-Experte die Unterstützung der BI-Nutzer durch Self-Service, KI und NLP-Sprachunterstützung. Beim Datenmanagement werden zunehmend auch Standortdaten integriert, etwa für Location Intelligence. Einen weiteren Trend sieht Grosser in der Erweiterung und Modernisierung der Datenarchitektur, etwa durch Data Lakes. Die Erstellung entsprechender Apps war nicht Schwerpunkt seines Webinars.

Die intensive Nutzung von Künstlicher Intelligenz und Machine Learning ermöglicht seiner Ansicht nach die Verkürzung und Optimierung von datengetriebenen Prozessen durch Automation, die Aus- und Verwertung von Data Catalog-Metadaten (etwa durch das zeitintensive Tagging und Verschlagworten) sowie die Unterstützung der Nutzer wie durch Nutzerführung. Wie etwa Salesforce gezeigt hat, lassen sich Machine-Learning- und NLP-Funktionen in zahlreiche Anwendungen der Fachbereiche nahtlos integrieren, um die Mitarbeiter produktiver zu machen.

Artikelfiles und Artikellinks

(ID:46498960)

Über den Autor