Kommentar von Otto Neuer, Denodo Business Intelligence modernisieren – aber richtig
Anbieter zum Thema
Business Intelligence ist mittlerweile ein agiles Set aus innovativen Tools und Methoden, nicht mehr eine große monolithische Software wie in der Vergangenheit. Die neuen Werkzeuge werden dabei auch oft direkt von den einzelnen Abteilungen verwaltet. Damit diese Veränderungen zu einem nachhaltigen Erfolg führen, müssen Unternehmen aber einiges beachten.

Während einer ersten Phase in der Transformation von Business Intelligence (BI) ging es vorrangig darum, kleinere Anbieter und Einzellösungen in die großen Plattformen zu integrieren. Derzeit befinden wir uns in der nächsten Phase der BI-Modernisierung, in der Cloud-Technologien und Künstliche Intelligenz (KI) zum Einsatz kommen. Grundsätzlich wird dies eine disruptive Phase sein, die durch Augmented Analytics gekennzeichnet ist, in der die Anwendung von KI auf die Analytik den manuellen Arbeitsaufwand von Data Scientists reduzieren kann.
Bevor eine Analyse durchgeführt werden kann, müssen letztere bisher die Daten zunächst recherchieren und aufbereiten. Es wird oft angeführt, dass ein Data Scientist 80 Prozent seiner Zeit mit der Datenvorbereitung und lediglich 20 Prozent mit deren eigentlichen Analyse verbringt.
Die Erweiterung von BI mit KI- und NLP-Fähigkeiten (Natural Language Processing) wird dazu beitragen, alle Phasen des Analyse-Workflows zu rationalisieren – von der Datenvorbereitung über die Datenmodellierung bis zu verwertbaren Erkenntnissen. NLP wird den Abfrageprozess von einem primären Drag-and-drop-Abfrageerstellungsprozess zu einem intuitiveren, sprach- und suchbasierten Prozess ändern und wird sowohl für den Datenzugriff als auch für die Interpretation der Ergebnisse eingesetzt werden. NLP kann KI verwenden, um dem Benutzer sowohl von Menschen als auch von Maschinen generierte Ergebnisse zu liefern und Anbieter werden beide Technologien in Chatbots und virtuelle Assistenten integrieren und so den Analyse-Workflow mit flexibler Konversation verbessern. Bald wird KI zu einem neuen Standard für BI werden.
Echtzeitanalysen nutzen – Dateninkonsistenz vermeiden
Daten entstehen heute schneller denn je und dazu noch in bisher ungeahnten Ausmaßen. Dieses exponentielle Datenwachstum führt zu neuen Herausforderungen. Ein Großteil der heutigen Daten ist unstrukturiert und stammt aus diversen Quellen wie Sensordaten, Bildern, Chats, Finanztransaktionen und vielen mehr. Als Antwort auf diese Herausforderungen benötigen Unternehmen heute moderne und agile Datenintegrationslösungen.
Das ist allerdings noch lange nicht der Standard. Viel mehr sieht die Lage in den meisten Fällen so aus, dass Unternehmen nur ältere Infrastrukturen zur Verfügung stehen, die nicht über ausreichende Echtzeit-Reporting-Kapazitäten verfügen. Das führt dazu, dass alle Daten zunächst repliziert und in einem separaten Repository aggregiert werden müssen, bevor sie analysiert werden können. Die physische Datenreplikation bringt allerdings noch weitere Probleme mit sich. Dazu gehören erhöhte Latenzen und Kontextverlust. Die größte Schwierigkeit ist aber, dass die Daten aufgrund des zeitintensiven Kopiervorgangs nach festgelegten Intervallen nie wirklich synchron mit den Originalen sind. Inkonsistenzen in der Analyse sind die schwerwiegende Folge.
Mit Datenvirtualisierung steht heute eine Technologie bereit, die es schafft, dieses Problem nachhaltig zu lösen. Bei dieser Methode verbleiben nämlich alle Daten in ihrem ursprünglichen Kontext und es findet keine Duplizierung statt. Über eine logische (virtuelle) Schicht sind die Daten aus verschiedensten Quellen dennoch für sämtliche Datenkonsumenten unmittelbar zugänglich. So findet in gewisser Weise eine Abstraktion der Datenquellen von den Anwendungen statt. Nicht zuletzt erlaubt Datenvirtualisierung so einen ganzheitlichen Blick auf konsistente und aktuelle Unternehmensdaten ohne die Notwendigkeit von Replikationen.
Verschiedene Datenquellen integrieren – ohne physische Replikation
Auch eine KI-getriebene Lösung allein ist noch kein Erfolgsgarant. Die Ergebnisse können immer nur so gut sein, wie der Input an Daten, mit dem eine Anwendung „gefüttert“ wird. Daten beziehen Unternehmen heute aus unzähligen Quellen, sie sammeln Informationen über Marktentwicklungen, veränderte Kundenpräferenzen und vieles mehr. Mit solchen heterogenen Datenquellen kommen moderne BI-Lösungen in der Rolle des Datenkonsumenten problemlos zurecht. Mit herkömmlichen ETL-Prozessen lässt es sich aber nicht mehr bewerkstelligen, die Daten in konsistenter, aktueller und redundanzfreier Form bereitzustellen.
Auch klassische (also physische) Data Warehouses sind der Komplexität heutiger Datenbestände nicht mehr gewachsen bzw. deren vollständige Integration ist aus wirtschaftlichen Aspekten nicht sinnvoll. Wenn Unternehmen immer noch auf veraltete Datenintegrationslösungen, die auf ETL-Prozessen basieren, angewiesen sind, bremst dies die Möglichkeiten moderner BI-Tools drastisch aus. Das betrifft nicht nur Datenanbindung, -Verarbeitung und Bereitstellung, sondern auch die Umsetzung moderner Anwendungsfälle wie Live Dashboards oder gar ganzer Business-Modelle. Potenziale, die unternehmenseigenen Daten vollumfänglich zu monetarisieren, bleiben also fatalerweise ungenutzt.
Auch Alternativen, die auf Connectors oder Data-Adaptern basieren, weisen Schwächen auf. Die Punkt-zu-Punkt-Verbindungen, die bei dieser Methode zwischen einer Quelle und einem oder mehreren Zielen jeweils direkt hergestellt werden, erfordern ein aufwendiges Management. Gesteigerte Fehleranfälligkeit ist das Resultat der erhöhten Komplexität, die dabei entsteht. Anwender müssen leider oft mehrere Tools nutzen, die unter Umständen auch inkonsistente Ergebnisse liefern, weil beispielsweise nicht jedes Reporting Tool Zugriff auf alle notwendigen Ressourcen hat oder die Daten durch den Prozess der physischen Replikation schlichtweg nicht mehr auf dem aktuellsten Stand sind. Solche Prozesse sind natürlich nicht ideal und Unternehmen sollten stattdessen auf einen agilen und logischen Ansatz zu Datenintegration zurückgreifen, der hilft, Integritätsprobleme schnell offenzulegen.
Welcome to a Hybrid World – auf die Cloud setzen
Viele Unternehmen verfügen leider immer noch nicht über eine nahtlose Integration zwischen der Cloud, bestehenden On-Premises-Systemen und den Datenkonsumenten der BI. Und das obwohl die Cloud ein großer Treiber hinter modernen Business-Intelligence-Lösungen ist und hybride Umgebungen aus Cloud und on-prem heute sich zum de-facto Standard entwickeln. Auch Deployments über mehrere Clouds (Multi-Cloud) hinweg stellt für viele IT-Abteilungen immer noch eine große Herausforderung dar, mit der sie nur schwer zurechtkommen. Letztlich ergibt sich ein ineffizientes Gesamtsystem, wenn es Unternehmen nicht gelingt, alle Deployments von einem einzigen zentralen Zugriffspunkt zu verwalten. Das ist allerdings nötig, um z. B. ein effektives Workload Balancing zu garantieren oder Data-Governance-Richtlinien umzusetzen.
Eine leistungsfähige Datenanalyse muss heute also über eine agile Echtzeitintegration verfügen, die mit verschiedensten Datenquellen aus Clouds und on-prem zurechtkommt. Um das zu realisieren, ist Datenvirtualisierung die ideale Grundlage. Diese Technologie schafft transparente Dateninfrastrukturen und erlaubt effizientes Datenmanagement in hybriden Architekturen.
Fazit
Denkt man an Business Intelligence, dann sollte man sich heute nicht nur eine einzelne Anwendung vorstellen. Es handelt sich auch nicht einfach um mehrere Anwendungen, die lose zusammenarbeiten. Stattdessen sollte man BI eher als eine integrierte Disziplin aus Prozessen, Technologie und Menschen begreifen, in welcher alle Komponenten zielgerichtet und nahtlos zusammenarbeiten und dem Unternehmen so nachhaltige Wettbewerbsvorteile verschaffen.
Artikelfiles und Artikellinks
Link: Denodo im Web
(ID:46634544)