Suchen

Kommentar von Thorsten Röscher, FICO Big Data Analytics – viel hilft nicht immer viel

| Autor / Redakteur: Thorsten Röscher / Nico Litzel

Daten gibt es genug – im Zeitalter von Big Data scheinen es sogar mehr als je zuvor zu sein. Gerade deshalb ist es für Unternehmen wichtig, mithilfe moderner Datenanalytik die richtigen Erkenntnisse aus den Daten herauszuholen. Das ist gar nicht so einfach – denn die Herausforderung ist nicht nur, zu erkennen, welche Erkenntnisse man aus den Daten gewinnen kann, sondern auch, wie die Daten „vorbereitet“ werden müssen, damit sie überhaupt verwertbar sind.

Firma zum Thema

Der Autor: Thorsten Röscher ist Pre-Sales Principal Consultant bei FICO
Der Autor: Thorsten Röscher ist Pre-Sales Principal Consultant bei FICO
(Bild: FICO)

Es geht dabei also um die Vorstufe zur eigentlichen Analytik: Wo kommen die Daten her, was beinhalten sie, wo und wie werden sie im Unternehmen vorgehalten und aufbereitet – und was müssen Unternehmen tun, damit sie überhaupt die Möglichkeit haben, Analytik-Tools darauf sinnvoll anzuwenden?

Die Ausgangssituation: Viele Rohdaten, viele Systeme

Die IT-Landschaft eines Unternehmens ist nur selten aus einem Guss, sondern besteht meist aus vielen unterschiedlichen Systemen und Lösungen, die wiederum über jeweils bestimmte Arten von Daten verfügen.

Ein einfaches Beispiel aus dem Marketing: Auf einer Unternehmens-Website registriert sich ein Benutzer und hinterlässt dabei seine Anmeldedaten. Die Software, die für den Registrierungsprozess zuständig ist, verfügt also über die Informationen über diese Person. Ob die jeweilige Person ein personalisiertes Angebot, einen Newsletter oder einen Gutschein-Coupon erhält, wird aber mithilfe einer anderen Software entschieden. Diese jedoch arbeitet mit einer ganz anderen Art von Daten. Die einzelnen Prozessschritte werden also von unterschiedlichen Systemen ausgeführt, die nicht an einem Ort integriert sind. Um die Daten zusammenzuführen müssen die Systeme daher untereinander kommunizieren und integriert werden.

Und dennoch: Spezialsysteme haben nicht nur ihre Daseinsberechtigung, in manchen Fällen sind sie sogar eine Notwendigkeit. Umso wichtiger ist es, dass eine gut durchdachte Strategie dahintersteckt, die die Systeme zu effizienter Teamarbeit zusammenführt.

Die Herausforderung: Von den Rohdaten zur Information

Damit die einzelnen Systeme dennoch effizient zusammenarbeiten können, gilt es, die Daten zusammenzuführen und so aufzubereiten, dass sie auswertbar sind. Denn zunächst handelt es sich um Rohdaten – im Falle unseres Beispiels um die eindeutige Kennung eines Individuums, das sich auf der Webseite registriert hat. Doch Rohdaten alleine werden dem Unternehmen nicht helfen, die richtigen Entscheidungen zu treffen. Deshalb müssen sie mithilfe modernster Analytik zu dem gemacht werden, was Menschen interpretieren können: zur Information.

Methode 1: Vom Problem zu den Daten

Jahrzehntelang wurde von Unternehmen der traditionelle Weg verfolgt: Auf betriebswirtschaftlicher Seite taucht ein Problem auf, das es zu lösen gilt. Man sucht also nach den entsprechenden Daten, die für die Problemlösung benötigt werden – und nur nach diesen. Bei dieser Methode zielt man also nicht auf alle Datentypen ab, die eventuell hilfreich sein könnten, sondern sucht tatsächlich nur nach dem wirklich Wesentlichen.

Ein Beispiel aus dem Kreditwesen: Ein Kreditinstitut möchte vorhersehen, ob ein Kreditnehmer ein erhöhtes Risiko darstellt und ob die Gefahr besteht, dass er die ihm gewährten Kredite nicht oder nicht vollständig vertragsgemäß zurückzahlen kann. Hierzu sieht sich das Kreditinstitut an, wie potenzielle Kunden in der Vergangenheit ihre Kredite bezahlt haben und wertet die entsprechenden Daten aus. Aus diesen Informationen lassen sich bereits viele Schlüsse ziehen, denn sie gewähren tiefe Einblicke in die Kreditwürdigkeit potenzieller Kreditnehmer.

Wie das Beispiel zeigt, geht man also von einem Problem aus – der Risikoeinstufung von Kreditnehmern –, überlegt sich, wie dieses gelöst werden kann und konzentriert sich dann auf die wichtigsten Systeme und Datenquellen, um daraus Schlüsse zu ziehen. Dieser Weg mag zwar auf den ersten Blick effizient und zielgerichtet wirken, bietet aber durchaus auch Nachteile für Unternehmen. Denn so werden Datenquellen von vornherein aus der Analyse ausgeschlossen, obwohl sie möglicherweise relevant sein könnten.

Auch wenn diese vielleicht nicht ganz so vorausschauend und aussagekräftig sind, sollten bei einer Entscheidung möglichst alle verfügbaren und relevanten Datenquellen einbezogen werden – vor allem dann, wenn enorme finanzielle Konsequenzen damit verbunden sind. Die Entscheidungen werden so in jedem Fall feiner und fundierter. Für Unternehmen hieße das allerdings mehr Aufwand. Denn sie müssten ausloten, ob es sich lohnt, auch andere Datenquellen zu berücksichtigen. Und ob diese tatsächlich einen Mehrwert bieten, lässt sich erst erkennen, wenn die Datenquelle gefunden, mit dem operativen System verknüpft und entsprechend aufbereitet wurde.

Unternehmen wollen das Gesamtbild sehen

Diesen Trend beobachten auch wir Big-Data-Experten bei Kundenprojekten: Es geht stets darum, Kosten und Aufwand möglichst gering zu halten, aber gleichzeitig alle Datenquellen zu berücksichtigen und zu evaluieren, die möglicherweise zu einer Entscheidungsfindung oder Problemlösung beitragen könnten.

Der Grund dafür liegt nahe. Gehen wir zurück zum Beispiel Marketing: Unternehmen wollen heute ein Gesamtbild des Kundenerlebnisses haben, sie wollen im Detail und in aller Ausführlichkeit wissen, welche Erfahrungen Kunden mit dem Unternehmen machen, wie sie darüber denken und was sie sich für die Zukunft wünschen. Die oftmals kleinen und homogenen Datensätze, die früher im Hinblick auf traditionelle Probleme definiert wurden, reichen dafür nicht mehr aus. Denn je nachdem, wie sich das „Gesamterlebnis“ des Kunden gestaltet, befindet es sich in vielen verschiedenen Datensystemen und muss wie ein Puzzle zusammengesetzt werden. Der Kunde kommt heutzutage auf sehr vielen verschiedenen Wegen mit dem Unternehmen in Kontakt und jeder dieser Berührungspunkte wird als Datensatz an unterschiedlichen Orten gespeichert. Die große Herausforderung ist es also, diese Daten zusammenzuführen, um sich ein Gesamtbild zu machen.

Methode 2: Zentrale Analysetools für die Entscheidungsfindung

Genau an diesem Punkt setzen innovative Unternehmen an: Sie modernisieren ihre Technologie und setzen auf Big-Data-Analytik. Das Herzstück bildet dabei eine zentrale Plattform, in der die unterschiedlichen Daten zusammengeführt und aufbereitet werden. Das ist dann auch die Umgebung, in der sich der Data Scientist austoben kann: Mithilfe intelligenter Analysetools testet und analysiert er die Daten, verbindet sie mit anderen Datenquellen und wandelt sie schließlich in Informationen um, auf deren Basis Probleme gelöst oder Entscheidungen getroffen werden.

Für Unternehmen bringen solche zentralen Plattformen und Tools entscheidende Vorteile mit sich. Zum einen beseitigen sie Hürden, die der Zusammenführung von Datenquellen im Weg stehen. Zum anderen erleichtern sie aber auch den Prozess, der hinterher einsetzt: die konkrete Umsetzung dessen, was die Datenanalyse ergeben hat.

Geht es beispielsweise um Kreditkartenbetrug, muss innerhalb von Millisekunden entschieden werden, ob es sich um Betrug handelt und ob eine Transaktion zugelassen oder gestoppt wird. Diese Echtzeit-Entscheidung ist wesentlich einfacher zu treffen, wenn sich alle Daten bereits in einem System befinden, entsprechend aufbereitet sind und über ein zentrales Analysetool verarbeitet werden.

Moderne Bibliotheken: Tools für die Datenanalyse

In der Praxis gibt es unterschiedliche Tools, die dafür entwickelt wurden, Daten effizient zusammenzuführen und zu analysieren. Die einen konzentrieren sich auf eine statische Umgebung, die Analyse erfolgt nicht in Echtzeit und meist im Offline-Modus. Andere Plattformen agieren direkt im aktiven Datenstrom und lassen diesen kontinuierlich ins System einfließen. Welchen Ansatz die Tools auch verfolgen – sie erleichtern die Arbeit. Wichtige Erkenntnisse lassen sich viel schneller erkennen als je zuvor – oder es wird überhaupt erst ermöglicht.

Zudem sind die Systeme offen und können von mehreren Mitarbeitern gleichzeitig genutzt werden. Wenn also ein Data Scientist wichtige Erkenntnisse aus Daten gewonnen hat, kann er die Ergebnisse seiner Arbeit über die Plattform mit anderen Nutzern teilen – wie in einer Bibliothek, in der Informationen für alle zugänglich sind.

Fazit

Welches Ziel Unternehmen auch verfolgen – sie sollten dabei stets das große Ganze im Blick behalten. Denn nur, wer Kunden, Markt und Trends genau beobachtet und daraus Erkenntnisse für die eigene Strategie ableitet, wird auf Dauer wettbewerbsfähig bleiben. Datenquellen dafür gibt es heutzutage genug, doch erst mit den richtigen Analysemethoden und Plattformen können sie auch effizient genutzt werden.

(ID:43639527)