Qualität statt Quantität bei Big Data Nach Big Data kommt Smart Data
Big Data ist der große IT-Trend der Zeit. Aber ist er wirklich noch zeitgemäß? Tatsächlich stößt Big Data an seine Grenzen. Das scheinbare Paradox: Big Data wird zu groß.
Anbieter zum Thema

Viele Unternehmen sind zunehmend überfordert. Grund ist der geradezu explosionsartige Zuwachs an Informationen. Berechnungen zufolge verdoppelt sich die weltweit verarbeitete Datenmenge alle zwei Jahre. Gleichzeitig soll die Zahl von Geräten mit intelligenten Sensoren in den nächsten Jahren auf 300 Milliarden steigen. Eine nie da gewesene Datenflut, die kaum handhabbar ist. Erleben wir bald das Ende von Big Data?
Kritik an Big Data gibt es schon lange. So wurde etwa bereits auf der International World Wide Web Conference 2010 moniert, das Datensammeln erfolge meist nach rein technischen Gesichtspunkten. Eine Qualifizierung, etwa nach statistischen Aspekten, werde meist vernachlässigt. Die Folge: Die Datenflut ist häufig eine Schwemme irrelevanter Informationen, die kaum sinnvolle Entscheidungen erlaubt. Denn bleibt die Qualität auf der Strecke, führen Interpretationen fast zwangsläufig in die Irre – ganz abgesehen von ethischen Fragen, wenn bei allem, was an Daten öffentlich verfügbar ist, bedenkenlos zugegriffen wird.
Datenmanagement ist eine Herausforderung
Datenmanagement ist seit eh und je eine Herausforderung – das galt schon zu Zeiten von Small Data: Kontaktdaten, Produktivität, personenbezogene Daten. Die digitale Welt fügt diesen klassischen Datensätzen jedoch eine Vielzahl an neuen Datenströmen aus den unterschiedlichsten Quellen hinzu – vor allem aus dem Internet oder via Smart Devices.
Dabei handelt es sich nicht nur um strukturierte Daten, sondern auch um unstrukturierte wie etwa Bilder, Transaktionsprotokolle, Blogs, oder maschinell erstellte Daten. Letztere können nicht ohne weiteres durch relationale Datenbanken nutzbar gemacht werden. Viele Daten bleiben dabei eher Datenmüll denn Datenschatz und erlauben keine sinnvolle Nutzung durch die Unternehmen. Diese drohen, an der Flut zu ersticken – oder durch den simplen Ausbau der Speicherkapazitäten und ein Aufrüsten der „Datability“ am falschen Ende zu investieren.
Unternehmen reagieren nur langsam
Denn erstaunlicherweise reagieren die Unternehmen nur langsam auf die sich verschärfende Herausforderung durch Big Data. Und nicht immer richtig. Noch immer dreht sich die Diskussion häufig darum, wie große Datenmengen schnell verarbeitet werden können – siehe beispielsweise das Motto „Datability“ der vergangenen CeBIT. Die Perspektive bleibt technisch.
Weshalb? Das reine Jagen und Sammeln im fehlgeleiteten Glauben des „Viel hilft viel“ ist trotz technischem Aufwand grundsätzlich einfach. Hier bedarf es eines Aufbruchs, ja eines Paradigmenwechsels, der bewusst gestaltet werden muss.
Wenn größer nicht immer besser ist, bedeutet das: Aus Big Data muss endlich Smart Data werden. Genügt es für Vorhersagen, eine einfache Zufallsstichprobe zu nehmen? Wird ein Vorhersagemodell akkurater, wenn es über fünf Millionen Zeilen anstatt über zehn Milliarden läuft? Statistisch gesehen ist der Unterschied tatsächlich vernachlässigbar. Wie geht es dann?
Keine einfache Formel
Viele Daten zu haben, ist keine Lösung. Leider gibt es keine einfachen Formeln, um aus Big Data künftig häufiger Smart Data zu machen. Der erste Schritt ist, Fragen an die Datensätze zu stellen. Wie sind die Daten verteilt? Können sie einfach isoliert werden? Ist die Variation groß genug? Müssen die relevanten Daten aus einer Masse an irrelevanten gefiltert werden?
Auch die Perspektive auf die Dateninhalte muss sich ändern. Daten sollten immer mit Blick auf gesuchte Lösungen interpretiert werden – und nicht nach zufälligen Mustern. So lassen sich beispielsweise Fälle finden, in denen schlicht eine andere Farbe eines Buttons auf einer Webseite dazu führte, dass ihn deutlich mehr Menschen anklickten.
Ziel sollte hier sein, nicht nur diese beiden Aspekte innerhalb der Daten zusammenzubringen, sondern bestehende Prozesse zu verbessern und künftige Ereignisse mit größerer Genauigkeit vorherzusagen. Außerdem sind isolierte Informationen wie das Klicken eines Links oftmals wertlos, wenn nicht bekannt ist, was dem Schritt vor- beziehungsweise nachgelagert ist. Kontext heißt das Stichwort.
Fokusverlagerung
Wie gelangt man also von Big Data zu Smart Data? Der Fokus muss von der Menge der Daten auf die Qualität verlagert werden und Daten müssen zudem in ihrem Kontext betrachtet werden. Dafür sind Algorithmen nötig, die Daten gleich nach ihrer Erhebung sinnvoll sortieren, statt sie nur zu speichern. Und um die inhaltliche Dimension der Daten zu erfassen und nutzbar zu machen.
Damit das gelingen kann, müssen Unternehmen neue intelligente Konzepte entwickeln. Das erfordert nicht nur ein Umdenken und ein Einlassen auf ein neues Paradigma, sondern bedeutet auch Aufwand. Allerdings: Wenn es die Unternehmen schaffen, die passenden Instrumente zu finden, können sie das volle Potenzial ihrer Daten richtig nutzen.
Ist das also das Ende von Big Data? Nein, nicht ganz. Um insbesondere Nutzer im Internetkontext zu verstehen, ist oftmals ein umfassendes Bild nötig. Viele Anwendungen erfordern einen ausführlichen Einblick in das Nutzerverhalten über verschiedene Kanäle hinweg, auch in Abhängigkeit von bestimmten demografischen oder geografischen Daten.
Kleine, intelligent zusammengestellte Datensets
Allerdings ist es eben oftmals möglich, schon mit einem kleinen, intelligent zusammengestellten Datenset beispielsweise passende Produktempfehlungen zu generieren. Es gibt in vielen Fällen eine Alternative zu Big Data. Und die muss intelligenter werden.
Der Schlüssel zum Erfolg liegt darin, sich als Unternehmen von einer Kultur des Datenmanagements weiterzuentwickeln hin zu einer lernenden Organisation, die sich den tatsächlichen Wert hinter und in den Daten nutzbar zu machen weiß.
* Ralf Reich ist Business Head für die DACH-Region bei Mindtree. Soumendra Mohanty ist Global Head of Data & Analytics bei Mindtree.
Artikelfiles und Artikellinks
(ID:43109693)