Kommentar von Wolfgang Kobek, Qlik

Die 3. BI-Generation schließt Lücken der Vorgängerkonzepte

| Autor / Redakteur: Wolfgang Kobek / Nico Litzel

Der Autor: Wolfgang Kobek ist SVP EMEA bei Qlik
Der Autor: Wolfgang Kobek ist SVP EMEA bei Qlik (Bild: Qlik)

Business Intelligence (BI) im klassischen Sinne beschreibt schlicht den Prozess, der Informationen aus allen Geschäftsbereichen systematisch analysiert und Daten zu anwendbaren Informationen transformiert. Doch die konkrete Umsetzung war oftmals herausfordernd – allein schon wegen der heterogenen Umgebungen, schließlich ist kein Unternehmen wie das andere – von den Data Lakes ganz zu schweigen.

Vergangene BI-Wellen brachten hier Verbesserungen, bauten zum Beispiel die Datenanbindung aus, optimierten die Performanz oder Big-Data-Fähigkeit. Doch sowohl die erste wie auch die zweite Generation von BI hatten teilweise noch „Luft nach oben“, wenn es darum ging, die besondere Rolle menschlicher Intuition, Fantasie und Idee-Begabung in den Analytics-Prozess wirklich zu integrieren. Erst die dritte Generation von BI scheint auch diesen Anspruch tatsächlich einzulösen. Wobei Trend-Themen wie Künstliche Intelligenz (KI) und Machine Learning natürlich eine bedeutende Rolle spielen. Aber eben nicht, um die menschliche Kognition zu ersetzen. Sondern um KI-basiert optimale Entscheidungsgrundlagen von hoher Datenqualität zu gewährleisten und assoziatives Denken datenbasiert auf dem Weg zu neuen, besseren Entscheidungen zu begleiten.

Worin unterscheiden sich die „drei Wellen“ von BI nun konkret? Hier hilft ein Blick in die Vergangenheit – auf die Entwicklung von BI im Kontext einer immer digitaleren Welt mit neuen, disruptiven Geschäftsmodellen.

Erste Generation: zentralisiert und komplex

Die erste Generation war häufig von Zentralismus geprägt. Alle Daten wurden innerhalb der IT-Abteilung gesammelt und analysiert, Erkenntnisse aus den Informationen waren den Fachleuten vorbehalten. Somit stellte sich die Informationsabfrage und datengetriebene Entscheidungsfindung vielfach als langwieriger Prozess dar. Suchte ein Manager die Antwort auf eine Frage, musste er diese an die Datenanalysten weitergeben. Nur sie verfügten über das entsprechende Know-how, um innerhalb einer Analytics-Lösung der ersten Generation Abfragen zu erstellen. Das wiederum bedeutete oft, dass die wertvollen Einblicke aus den Analysen nur einen Teil der Mitarbeiter einigermaßen zeitnah erreichten. Der Rest musste bis zu verwertbaren Informationen mehrere Abfrageschleifen drehen.

Maßnahmen zu höherer Benutzerfreundlichkeit

Um die Anzahl dieser Schleifen zu minimieren, zielte die zweite Generation von BI auf Anwendersteuerung und Dezentralisierung. Durch vier Maßnahmen reduzierte sich die Komplexität, und Data Analytics wurde immerhin für bis zu 50 Prozent einer Belegschaft in einer Weise zugänglich, die kein Spezialwissen voraussetzte:

  • Der Technologie-Stack wurde beseitigt.
  • Das Aufbereiten der Daten wurde benutzerfreundlicher.
  • Intuitive und visuelle Möglichkeiten zur leichteren Interaktion mit den Daten wurden eingeführt.
  • Wer eine assoziative Analytics-Engine in seine Lösung integrierte, eröffnete so die wirklich freie Untersuchung von Daten aus allen Blickwinkeln – rollenbasiert und bei gleichzeitiger Gewährleistung der Governance.

Die neuen Fähigkeiten der Technologie schufen außerdem gute Analytics-Bedingungen für Mitarbeiter an allen Stellen in Unternehmen, die Interesse daran hatten, mit Daten zu arbeiten – oder überzeugt waren, dass sie datenbasiert ihren Job einfach noch besser machen können. Vom Standard-User mit ein paar übersichtlichen KPI-Dashboards über Power-User und Business Analysten bis hin zu Data Scientists mit sehr komplexen Analytics-Szenarien fand nun jeder „seinen“ Weg zum datengetriebenen Arbeiten und einiges an früheren „BI-Hürden“ konnte abgebaut werden.

Der Wert von Daten wird von Menschen generiert

Doch weitere Fragen zeigen sich mit der fortschreitenden Entwicklung der Analytics Economy: Selbst wenn gut visualisierte, verständliche Analytics-Erkenntnisse vorliegen: Werden diese auch verwendet? Und wenn ja: Führen sie zu einer nachhaltigen Transformation der Entscheidungsfindung? Hier ist echte und tief verwurzelte Datenkompetenz gefragt – ganzheitliche Fähigkeit und Kultur, in Daten zu lesen, mit ihnen zu arbeiten, sie zu analysieren und auf ihrer Basis zu argumentieren.

Waren in der zweiten BI-Welle durch den Selfservice-Gedanken hier erste Schritte zu sehen, setzt doch die aktuelle Welle der „3rd Generation BI“ die Idee noch konsequenter um. Denn diese Welle versteht die Vorteile einer unternehmensweiten Analyse-Kultur, in der alle Mitarbeiter in der Lage sind, für sie relevante Daten ohne Anwendung- und Infrastrukturhürden zu untersuchen. Das erfordert eine neue Konzentration auf das ganz besondere Wesen der menschlichen Kognition im Umgang mit Informationen. Aber auch technologische Voraussetzungen wie Cloud- und Multi-Cloud-Fähigkeiten, eine plattformbasierte Architektur und smarte Algorithmen. Denn bei der Sicherung der Datenqualität und dem Indizieren von relevanten Daten in Big-Data-Umgebungen können KI-basierte Systeme enorm helfen.

Demokratisierung, Augmented Intelligence und Embedded Analytics

Es braucht dreierlei, um Datenkompetenz im Unternehmen wirklich zu etablieren: Erstens eine gewisse „Demokratisierung“ der Daten. Das bedeutet, dass alle Anwender über regulierte, unternehmensweite Informationskataloge auf sämtliche Daten zugreifen können. Ein unternehmensweites Datenschema integriert alle Daten, unabhängig von Größe, Speicherort oder Quelle und gewährleistet einen regulierten und analysebereiten Zugriff zur assoziativen Erforschung.

Zweitens gehört eine Kombination aus menschlicher Interaktion mit maschinell ermittelten Mustern zu diesem Konzept. „Augmented Intelligence“ meint, dass der Anwender natürlich selbstständig Daten untersucht. Zeitgleich jedoch schlägt die kognitive Engine neue Möglichkeiten vor, die Informationen zu betrachten – und zeigt an, wo sich tiefergehende Analysen empfehlen.

Der dritte Teil beruht auf Embedded Analytics, Mobile und Selfservice. Datengetriebenes Arbeiten dringt so bis in alle Niederlassungen, Abteilungen und Außendienst-Einheiten von Organisationen vor, erlaubt Analysen auf allen Devices und eröffnet dank Microservices- und Container-basierte Architektur auch Analysen zum Beispiel in komplexen IoT-Umgebungen.

Fazit

Die dritte Generation von BI hat die einzigartige Chance und gleichzeitig die große Herausforderung, bei zunehmender Komplexität von Datenquellen- und Formaten niederschwellige Zugänge zu digitale Informationen aus allen Quellen zu eröffnen – und sie so aufzubereiten, dass menschliche Kreativität und Instinkt fürs Geschäft den Platz behalten (oder auch erhalten?), der ihnen zusteht.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45914126 / Analytics)