Suchen

Analytics von Streaming-Daten Visual Data Discovery im Sekundentakt

| Autor / Redakteur: Patrick Benoit / Nico Litzel

Das Volumen an Streaming-Daten explodiert geradezu. Sie stammen von vernetzten Maschinen, Geräten, Sensoren und aus user-generiertem Content. Jede einzelne dieser Quellen liefert gigantische Mengen hochaktueller Daten.

Firmen zum Thema

Beispiel eines Dashboards von Datawatch, bei dem Daten von verschiedenen Quellen in Echtzeit gestreamt werden.
Beispiel eines Dashboards von Datawatch, bei dem Daten von verschiedenen Quellen in Echtzeit gestreamt werden.
(Bild: Datawatch)

Die Analyse von Streaming-Daten ist nichts grundsätzlich Neues. Sie wird auf den Kapitalmärkten schon seit langem praktiziert. Transaktionen werden hier in Millisekunden abgewickelt. Entsprechend schnell kann sich die Risikostruktur in einem Portfolio ändern.

Heute setzt sich die Nutzung von Streaming-Daten in der Lieferkette, im Kundenservice und im Marketing immer stärker durch. Der Einzelhandel, die Medien, das Gesundheitswesen, die Energiebranche und der Maschinenbau setzen auf Big Data bei der Steuerung von Kommunikation, Prozessen, Produktionsanlagen und in der Wartung. Gartner erwartet, dass 2017 mehr als die Hälfte der Analytics-Implementationen ereignisgesteuerte Datenströme nutzen werden, die von Maschinen, Anwendungen und Personen stammen.

Bildergalerie

Traditionelle BI-Tools stoßen an Grenzen

Je kurzfristiger Daten zur Verfügung stehen, umso schneller wollen die Anwender diese auch auswerten können. Nach Ansicht von Dr. Wolfgang Martin, einem der führenden europäischen BI-Analysten, können traditionelle BI-Tools wie Berichtserstellungswerkzeuge, Dashboards, Ad-hoc-Anfragen, OLAP - Online Analytical Processing und auch Tabellen keine wirklich neuen Einblicke liefern. Denn sie dienen nur der Zusammenfassung und Diagnose von Daten sowie der Beantwortung bekannter, zuvor festgelegter Fragen.

Die Daten müssen hierzu mithilfe der IT modelliert werden, um semantische Layer und Berichte vorzubereiten, die dann zentral an die Anwender verteilt werden. Diese Werkzeuge sind daher nicht geeignet für dynamische Umgebungen, in denen man fortlaufend neue Fragen stellen und beantworten muss.

Neues entdecken

Tools für Visual Data Discovery zeigen dagegen bisher unbekannte Zusammenhänge, Trends, Anomalien und Ausreißer, die Anlass geben für völlig neue Fragestellungen und für eine tiefergehende Untersuchung. Dazu lassen sich verschiedenste Datenquellen verknüpfen. Doch nicht alle Visual-Data-Discovery-Anbieter kommen mit Big Data und mit Streaming-Daten zurecht.

Dabei bietet die Visualisierung von Streaming-Daten einen enormen Vorteil: Man kann bereits bei den ersten Anzeichen eines Problems reagieren. Datenvisualisierung ist ein interaktiver, problembezogener Prozess, der ad hoc intuitive Analysen zulässt.

Visuelle Analysen eignen sich besonders, um große Datenmengen, komplexe Datenstrukturen oder eben Echtzeitdaten zu überwachen und zu analysieren. Denn große Datenmengen und komplexe Datenstrukturen werden durch Visualisierung übersichtlich. Die grafische Darstellung unterstützt das hervorragend ausgeprägte Erkennen von Mustern durch das menschliche Auge.

So lassen sich beispielsweise Ausreißer leicht erkennen und strukturelle Änderungen gleichsam ablesen. Die Daten sollten dazu so wenig wie möglich aggregiert werden – ein weiterer wesentlicher Unterschied zu traditionellen BI-Anwendungen.

(ID:43040871)