Jedes Unternehmen braucht eine Wetterkarte Um Big Data zu verstehen, bedarf es der Visualisierung in Echtzeit

Autor / Redakteur: Patrick Benoit / Ulrike Ostler

Der Blick auf eine Wetterkarte ist für viele eine wichtige Entscheidungshilfe, wenn es darum geht: Soll das Wochenend-Programm eher nach „draußen“ oder nach „drinnen“ verlegt werden? Denn Wetterkarten sind so aufbereitet, dass Laien sie verstehen können. Im Privatleben sind wir alle Nutzer von „Big Data“. Aber im Job?

Firmen zum Thema

Ohne Visualisierung bleibt die Interpretation von Big Data etwas für Spezialisten, zufällig oder mit stark eingeschränktem Horizont.
Ohne Visualisierung bleibt die Interpretation von Big Data etwas für Spezialisten, zufällig oder mit stark eingeschränktem Horizont.
(Bild: Sven L. / pixelio.de)

In der Meteorologie ist Big Data schon lange Realität: Eine Vielzahl an aktuellen Datenquellen und Parametern wird laufend mit historischen Daten kombiniert, um möglichst verlässliche Aussagen über die Zukunft zu treffen. Unternehmen stehen hier erst am Anfang.

Die große Big-Data-Herausforderung besteht nicht so sehr in der ständig schneller wachsenden Datenmenge, sondern in der Fähigkeit von Unternehmen, diese Datenmengen effizient und verwertbar in der erforderlichen Geschwindigkeit und Detailtiefe zu verknüpfen und auszuwerten. Mit drei Bausteinen kommen Unternehmen einen wesentlichen Schritt voran:

  • Baustein 1: Die passenden Visualisierungen suchen, mit denen verschiedene Aspekte gleichzeitig beleuchtet werden können und mit denen Risikofaktoren, Probleme und Ausreißer schnell entdeckt werden können
  • Baustein 2: Möglichst viele, relevante Daten aus allen möglichen Datenquellen und in allen möglichen Datenformaten einbinden
  • Baustein 3: Daten so aktuell wie möglich verarbeiten, wo nötig auch in Echtzeit Die Erfahrung zeigt: Wer sich ausschließlich mit der Bewältigung von Datenmengen und Hochgeschwindigkeitsanalytik befasst, sieht schnell den Wald vor lauter Bäumen nicht. Wer dagegen mit der Visualisierung startet und von dort aus definiert, was gebraucht wird, kommt schneller ans Ziel.

Software, die aus Daten Karten macht

Produkte wie „Datawatch Visual-Data-Discovery“ helfen, dies zu bewerkstelligen. Die Daten kommen aus immer mehr Quellen wie mobilen Geräten, Videokameras, Maschinendaten oder sozialen Medien und sie liegen in den unterschiedlichsten Formaten vor, strukturiert, semistrukturiert oder unstrukturiert. Dieses Datenvielfalt (Variety) hat in den letzten Jahren enorm zugenommen.

Jeder weiß eine solche Wetterkarte zu lesen
Jeder weiß eine solche Wetterkarte zu lesen
(Bild: Wetter.com)

Durch die zunehmende Zahl dynamischer Echtzeit-Datenquellen spielt Geschwindigkeit (Velocity) eine immer größere Rolle. Die Technik stellt Ticker Feeds, Sensoren, Message-Busse und Daten von CEP-Engines in nie dagewesener Geschwindigkeit bereit.

Zum Einsatz kommen dann meist In-Memory-Technologien, die jedoch sehr kostspielig und vielfach nicht leistungsfähig und schnell genug sind, um alle Daten sinnvoll zu verarbeiten. Denn Echtzeit-Daten müssen mit historischen Daten kombiniert ausgewertet werden, um den vollen Nutzen aus ihnen zu ziehen.

Muster und Korrelationen

Die Analyse von Big Data ist ohne Visualisierungen kaum möglich. Big Data bedeutet einerseits die sprichwörtliche Suche nach der Nadel im Heuhaufen, also nach Ausreißern und Anomalien; Big Data bedeutet aber auch die Suche nach Trends und Mustern sowie nach Korrelationen in verschiedenen Datenquellen. Die großen, übergreifenden Zusammenhänge und die kleinen, wichtigen Details sind ohne Visualisierung gar nicht erkennbar.

Traditionelle BI-Tools kommen mit Big Data kaum zurecht, weil sie für Abfragen in strukturierten Daten entwickelt wurden. Zwei Arten von Daten machen den meisten BI-Tools Probleme: der Zugriff auf Echtzeit-Informationen, wie sie etwa in Streaming-Feeds oder in Message-Busses vorliegen, und unstrukturierte Daten. In der Visualisierung liefern sie allenfalls statische Daten.

Visual Data Discovery in Kombination mit einer Daten-Management-Plattform bietet dagegen die Möglichkeit, Anomalien und Ausreißer in großen Datenmengen, etwa in Echtzeit-Streams und Zeitreihendaten, schnell und sicher aufspüren und in Echtzeit ohne zusätzliches RAM-Repository zu analysieren. Durch die Integrationen kaum oder gar nicht strukturierter Daten bietet die Plattform den einfachen Zugriff auf verschiedene Datenquellen und die Umwandlung beliebiger Datenformate in strukturierte Daten – ganz ohne Systemschnittstelle.

Auf dem Desktop oder über das Internet lässt sich die Datenvisualisierung über Treemaps, Heatmaps und andere Varianten darstellen und in eigene Anwendungen einbetten. Alle Informationen können in einer visuell anspruchsvollen, detailreichen Umgebung erforscht werden. Die bei der Strukturierung von Daten eingesparte Zeit kann für wertvolle Analysen und damit bessere Entscheidungsrundlagen genutzt werden.

Der Autor:

Patrick Benoit, Director EMEA Central, North and East bei der Datawatch GmbH, gründete 2011 die deutsche Niederlassung des Anbieters von Software für Visual Data Discovery und Daten-Management. Hauptsitz des Unternehmens ist in Chelmsford, Massachusetts.

Als Leiter der Marketing-, Sales- und Presales-Teams betreut er insbesondere den Bereich Kunden- und Partnerbeziehungen im deutschsprachigen Markt.

Patrick Benoit startete seine Business-Intelligence-Karriere 2008 als Senior Account Manager bei Oracle, wo er für Kunden wie die Lufthansa, VW, Daimler, Deutsche Bahn und Deutsche Telekom verantwortlich war. Davor leitete er beim CRM-Anbieter Talisma als Regional Director die Regionen Zentraleuropa und Benelux.

Zu seinen weiteren beruflichen Stationen gehören Applix, wo er als Regionalmanager Süddeutschland und die Schweiz betreute, sowie Cognos. Cognos und Applix gehören inzwischen beide zu IBM.

(ID:42439510)