Kommentar von Holger Hammel, Aiven Wachsende Datenmengen erfordern eine Analytics-Logik
Anbieter zum Thema
Wenn Unternehmen wachsen, wachsen auch ihre Daten. Ein an sich erst einmal begrüßenswertes Ereignis. Denn mehr Daten bedeuten auch mehr Erkenntnisse über das echte Leben. Und mehr Erkenntnisse führen zu besseren Entscheidungen. Eigentlich. Doch nur zu oft stoßen Organisationen mit ihrer Logik, Daten durch einzelne Anwendungen auszuwerten, an ihre Grenzen. Erst eine Analytics-Logik ebnet den Weg, das Maximum aus mehr Daten herauszuholen. Wie sieht das aus?

Wachsende Datenmengen stellen die IT-Infrastruktur einer Organisation vor neue Herausforderungen: Die Kosten für Netzwerke steigen und die Performance leidet. Typische Warnhinweise, dass das aktuelle Modell einer Organisation seinen Zenit überschritten hat, betreffen den Informationsfluss. Zieht es sich beispielsweise zu lange hin, bis Mitarbeitende Informationen erhalten und müssen zu viele einzelne Mitarbeitende – oft abteilungsübergreifend – in den Prozess eingebunden werden, sollten die Alarmglocken klingeln. Häufig können in Organisationen selbst einfache Analysen und Auswertungen nicht ohne das Einbinden von Datenspezialisten passieren.
Die Einzelfälle sind dabei ganz verschieden. Es kann sich um Kunden- oder Marketingdaten, um Daten von Mitarbeitenden oder Produkten, aber auch um externe Daten handeln. Ein recht simples Beispiel sind Rechnungen: Je mehr Informationen am Ende eines Monats für das Erstellen einer Rechnung benötigt werden, als umso aufwendiger und fehleranfälliger kann sich diese Aufgabe entpuppen. Für welchen Zeitraum sollen Dienste oder Produkte abgerechnet werden? Was genau soll das Unternehmen in Rechnung stellen? Stehen gegebenenfalls noch weitere Forderungen aus? Auf den ersten Blick einfache operative Fragen sorgen im Zweifelsfall dafür, dass die für das Erstellen der Rechnung verantwortliche Person Rückfragen an den Customer Service, die Buchhaltung oder auch die Fachabteilung stellen muss.
Und dabei ist das eigentliche analytische Potenzial noch nicht ausgeschöpft: Lassen sich besonders kauffreudige Kunden klassifizieren – also geografisch, regional oder auf eine andere Art und Weise? Wie hat sich der Absatz welcher Produkte und Services in den vergangenen Wochen oder Monaten entwickelt? Lassen sich Ursachen identifizieren, wieso bestimmte Produkte zu bestimmten Zeiten gefragter waren? Was bedeutet das für den operativen Alltag und für zukunftsgerichtete Entscheidungen? Eine Visualisierung vorliegender Daten veranschaulicht wichtige unternehmerische Zusammenhänge und aktuelle Ereignisse. Doch viel zu oft erfordert dies das Einbinden der Daten-Teams.
Welche Daten?
Gerade vor diesem Hintergrund lohnt es sich, zu überlegen, welche Daten aggregiert, kontinuierlich abgefragt und ausgewertet werden können. Beispielsweise lassen sich Clickhouse, das in Echtzeit Analyseberichte mit SQL-Abfragen erstellt, und das Streamprozessor-Framework Flink einfach bedienen und können dies auch im Falle großer Datenberge zuverlässig gewährleisten. Wobei sich Organisationen, abhängig von ihrem jeweiligen Ziel, individuell für ein Zusammenspiel verschiedener Lösungen entscheiden müssen.
Dieses Investment lohnt sich. Einmal aufgesetzt birgt ein solches Open-Source-Ökosystem, in dem mehrere verknüpfte Open-Source-Lösungen im Zusammenspiel permanent Events streamen, viele Vorteile:
- Zusätzliche Erkenntnisse auf einen Blick: Beispielsweise lassen sich Informationen, die Rechnungen eines Kunden zugrunde liegen, über einen bestimmten Zeitraum visualisieren, um Entwicklungen nachzuvollziehen und neue Erkenntnisse zu gewinnen.
- Demokratisierung von Daten in Organisationen: Vorausgesetzt das Modell läuft in der Praxis, lassen sich datenbasierte Analysieren durchführen, ohne IT-Kolleginnen und -Kollegen einbinden zu müssen – weniger IT-Fachkräfte sind erforderlich.
- Skalierung: Wachsen die Daten – beispielsweise entstehen mehr Rechnungen für mehr Kunden oder werden neue Services verkauft – wirken sich diese neuen Daten positiv auf die laufenden Systeme aus, da sie Ergebnisse validieren, ohne dass Systeme an ihre Grenzen stoßen
- Compliance: Wer darf welche Daten sehen. Aggregiert die Software Daten, kann von vornherein darauf geachtet werden, dass alle Datenflüsse den regulatorischen Vorgaben und der Policy einer Organisation entsprechen.
- Dynamik: Intelligente Datenökosysteme, die stetig Events streamen, können anders als Reports, die einmalig erstellt werden, permanent und aktuell abgerufen werden.
- IT-Sicherheit: In den meisten Fällen bürgen dritte Parteien für die Sicherheit der Systeme. Das sieht im Falle manueller interner Prozesse ganz anders aus.
Kafka & Flink
Im Zentrum solcher Ökosysteme steht in vielen Fällen Kafka. Meist laufen alle Events dort ein. Flink kann wiederum SQL-Abfragen übernehmen, also Daten kontinuierlich streamen. Postgres oder Clickhouse garantieren, dass alle Daten in der gleichen Datenbank landen und Grafana kann Daten visualisieren, sodass sie für alle Anwender, auch solche ohne tiefergehende IT-Kenntnisse, gleichermaßen verständlich sind.
Wie diese Systeme schlussendlich ausgestaltet sind, hängt wie beschrieben vom Einzelfall ab. Gerade in der Rezession sollten Unternehmen sich nicht scheuen, intelligente Lösungen aufzubauen. Denn, das haben empirische Studien gezeigt: Als Gewinner gehen aus wirtschaftlichen Krisen progressive Unternehmen hervor, die sich trauen, ihre Prozesse weiter zu optimieren.
Artikelfiles und Artikellinks
Link: Aiven im Web
(ID:49054047)