Big Data – Ansichten und Aussichten – Revolution Wie Big Data die Welt verändert

Autor / Redakteur: John Tyrrell / Jürgen Sprenzinger

Kennen Sie die US-Serie „Person of Interest“? Eine „Maschine“ sammelt von allem und jedem Daten und kann so vorhersagen, welche Person wann in ein Vebrechen verwickelt wird. Ein Schelm, der hier an die NSA denkt. Und alles Mumpitz! Denn hier ist keine „Maschine“, sondern Big Data am Werk. Ansonsten überholt die Wirklichkeit die Fiktion – längst.

Firmen zum Thema

Mit Big Data in eine spannende Zukunft
Mit Big Data in eine spannende Zukunft
(Bild: Intel)

Der Begriff „Big Data“ ist noch relativ jung – nichtsdestoweniger wird er für viele bereits ein wesentlicher Erfolgsfaktor. Hochkarätige Unternehmen wie Google, Amazon oder Facebook dienen vielen kommerziellen Organisationen als Beispiel dafür, wie man das Potenzial der Big-Data-Analyse entschlüsselt, um damit Voraussagen für die wirtschaftliche Zukunft zu treffen.

Für ein E-Commerce-Unternehmen wie Amazon ist es geschäftsentscheidend, vorher zu wissen, was die Kunden möchten, und zwar wenn es noch potenzielle Kunden sind. Google oder Facebook wiederum sind an der Vorhersage interessiert, welche Informationen Menschen suchen – momentan oder auch zukünftig – und auf welche Art Anzeigen oder Werbung sie wahrscheinlich reagieren werden.

Große, nicht-kommerzielle Institutionen, die das Potenzial von Big Data erkannt haben und deren Interesse nicht darin liegt, Produkte oder Dienstleistungen an den Mann/die Frau zu bringen, sehen hier ebenfalls den allgemeinen Nutzen für die Gesellschaft und springen auf diesen Zug auf. Eine dieser Institutionen ist das Los Angeles Police Department, aber auch die Universität of California in Los Angeles, die in einem Pilotprojekt etwa 13 Millionen Daten von vergangenen Verbrechen über einen Zeitraum von 80 Jahren auswertet – um eine Vorhersage treffen zu können, wo Verbrechen als nächstes geschehen werden.

Screenshot FallingFruits.org
Screenshot FallingFruits.org
(Bild: FallingFruits.org)

Fallingfruit.org, die Webseite einer Community, kombiniert Daten des amerikanischen Landwirtschaftsministeriums mit Google Maps mit dem Ergebnis, dass man dadurch speziell auch in städtischen Gebieten jeden Baum, der essbare Früchte trägt, finden könnte. Projekte solcher Art verbinden einen gewaltigen und oft völlig konträren Datenbestand in bereits industriellen Maßstab zu einem Wissen, das man auf andere Weise kaum erlangen könnte.

Nur die Spitze des Eisbergs

Was Big Data betrifft, so darf man annehmen, dass wir bislang nur die Spitze des Eisbergs gesehen haben. Die Wechselwirkungen zwischen Mensch und Technologie – aber auch zwischen Computer und Computer – wachsen exponentiell, mit dem Ergebnis, dass sowohl das Volumen als auch die Vielfalt der Daten explodieren.

Laut der jährlichen Prognose von Cisco Visual Networking Index wird es bis zum Jahr 2016 weltweit mehr als zehn Milliarden aktiver Computer geben, die etwa rund 130 Exabyte an mobilen Daten erzeugen, wobei es sich bei etwa acht Milliarden der genutzten Geräte um Handhelds, Tablets und PCs handelt.

Den Rest wird vom Datenverkehr zwischen Maschine und Maschine erzeugt, die diese Daten für den Einsatz und die auszuführenden Funktionen benötigen. Im Klartext bedeutet dies, dass letztlich zwei Milliarden Maschinen und Computer miteinander „sprechen“ und Daten austauschen werden, ohne dass der Mensch aktiv daran beteiligt ist.

Xbox Smartglass
Xbox Smartglass
(Bild: xbox)

Xbox SmartGlass beispielsweise ist die aktuellste High-Profile-Interactive-Technologie, die in der Lage ist, Tablets und Smartphones mit dem TV-Gerät zu verbinden – was man vor noch nicht allzu langer Zeit bestenfalls der Fantasie eines Science-Fiction-Autors zugeschrieben hätte. All diese neuen Technologien erlauben es uns, mit unserer Umwelt auf eine bemerkenswerte neue Art zu kommunizieren.

Ergänzendes zum Thema
NFC / RFID / Petabyte / Exabyte

NFC: Near Field Communicaton (deutsch: „Nahfeldkommunikation“), ein internationaler Übertragungsstandard zum kontaktlosen Austausch von Daten per Funk über kurze Strecken und einer Übertragungsrate von max. 424 kBit/s.)

RFID: Radio-frequency identification (deutsch: „Identifizierung mit Hilfe elektromagnetischer Wellen“). Diese Technik ermöglicht die automatische Identifizierung und Lokalisierung von Gegenständen und Lebewesen. Bestehend aus einem Transponder, der sich am oder im Gegenstand/Lebewesen befindet und einen Kennungscode enthält, erleichtert er die Datenerfassung. Zum Auslesen wird ein Lesegerät benötigt. Vorteile dieser Technologie sind zum einen die geringe Größe (Ein RFID entspricht etwa der Größe eines Reiskorns) und auch der Umstand, dass keine Stromquelle im Körper vorhanden sein muss, sondern die Kopplung lediglich durch die vom Lesegerät erzeugten magnetischen Wechselfelder geringer Reichweite stattfindet, durch die der Transponder dann kurzzeitig mit Energie versorgt wird.

Petabyte: Ein Petabyte entspricht 1.000 Terabyte

Exabyte: Ein Exabyte entspricht einer Trillion Bytes (1018) Bytes, einer Millarde Gigabyte, einer Million Terabyte oder tausend Petabyte.

„Smartphones, Tablets, vernetzte Autos, intelligente Haustechnik, eine intelligente städtische Infrastuktur, Bewegungssensoren, eingebettete RFID, NFC und Kameraerfassung – all diese Technologien werden rasch expandieren“, schreibt Tony Salvador, Direktor Experience Insights Research Interaction & Experience Research Lab von Intel und diese gesamte Geräte-Konstellation durchzieht unser Leben – und erzeugt gleichzeitig einen gewaltigen Datenstrom in der Größenordnung von Petabytes.

Zuerst die Vision, dann die Umsetzung

Wie bei allen technischen Innovationen sind Visionen der Ausgangspunkt – so auch bei Big Data. Visionen von Menschen, die sich mit der Frage auseinandergesetzt haben, wie die Dinge wohl in fünf oder zehn Jahren aussehen werden. Einer dieser

John David Miller, Principal Engineer, Intel.Corp.
John David Miller, Principal Engineer, Intel.Corp.
(Bild: frei)

„Propheten“ ist John David Miller, Principal Engineer bei den Intel IT Labs. Millers Forschungsgruppe konzentriert sich auf die Sinngebung und das Verstehen informatorischer Probleme, die Entwicklung und das „Ausbrüten“ neuer Technologien und deren Nutzen.

Das Team war eines der ersten bei Intel, das sich mit der Open-Source-Technik „Apache Hadoop“ beschäftigte. „Wir sahen den Wert von Hadoop sehr früh und auch als richtigen Weg und begannen, daran zu arbeiten – wobei sicherlich nicht jeder davon überzeugt war“, sagt Miller. „Hadoop ist sozusagen eine radikale Abkehr von der Tradition und so war es zunächst so etwas wie ein Kampf, die traditionellen Datenbank-Jungs zu überzeugen , aber seitdem war das Wachstum phänomenal – wir hatten mehr als 1.000 Menschen auf dem diesjährigen internen Big-Data-/ Hadoop-Gipfel.“

Das Brisante steckt zwischen massenhaft Belanglosem

Die Probleme, die mit Big Data Tools gelöst werden können, sind zahl- und variantenreich. Miller teilt sie in zwei verschieden Kategorien ein. Die erste Kategorie sind klassische Business-Intelligence-Probleme, die ihrer traditionellen Datenbank entwachsen sind, vielleicht aufgrund von Echtzeit-Sensordaten oder dem Internet, also Kundendaten.

Die zweite Kategorie erfordert laut Miller die Verbindung der Punkte über verschiedene Datenquellen und dann muss man zwischen den Zeilen lesen, weil die gesuchten Antworten nicht direkt in den Daten codiert sind. Die Marktvorhersage beispielsweise stellt ein solches Problem dar.

Mit dem Aufbau eines Gesamtbildes, das aus vielen vorhandenen Wissensquellen zusammengetragen wird, kann man damit beginnen, offene strategische Fragen zu beantworten wie etwa: „Wie viele Widgets werden wir verkaufen? Wie könnte sich ein Erdbeben oder ein politischer Aufstand auf unser Geschäft auswirken?“

Hätte der 11. September 2001 verhindert werden können?

Miller weist darauf hin, dass diese Art der Informationsynthese der Arbeitsweise von Intelligence-Analysten ähnelt, um Bedrohungen zu erkennen. „Der Bereich der visuellen Analytik nach dem 11. September 2001 wurde aus der Erkenntnis heraus geboren, dass die Regierung genau genommen alle Daten hatte, die sie benötigt hätte, um den Anschlag zu verhindern, aber diese Daten waren an verschiedenen Orten verstreut und die Regierung wusste eigentlich nicht, was sie wusste.“

Ergänzendes zum Thema
11. September 2001

Ex-Spion Thomas Drake ist jemand, der den US-Geheimdienst NSA wie kaum ein anderer kennt. Für ihn steht eindeutig fest: Die NSA hätte den Anschlag verhindern können, denn die entscheidenden Informationen seien vorhanden gewesen, aber man habe sie nicht verstehen können und sie seien nicht weitergegeben worden.

So sei auch niemand in der Lage gewesen, die einzelnen Punkte miteinander zu verbinden. Drake sagt: „Der größe Widerspruch unserer Zeit ist es, dass Geheimdienste wie die NSA mit den gigantischen Datenmengen genau genommen gar nichts anfangen können, denn je mehr Daten sie sammeln, desto größere Heuhaufen entstehen – und umso schwerer wird es, die Nadel zu finden. Daten zu bekommen ist kein Problem. Das Problem ist, etwas darin zu erkennen.“

Das Miller-Team arbeitet nun daran, diese leistungsstarke Funktion in die Hände der einzelnen Nutzer zu legen und zwar in Form einer Initiative, die sich „Tiefe Einblicke“ nennt. „Wenn man einfach und effektiv all die verschiedenen Bits an Informationen von Menschen, Orten, Projekten, Veranstaltungen und so weiter zu einem persönlichen großen Bild zusammenfügen würde, das im Lauf der Zeit wächst, würde man mehr wissen, weniger vergessen und neue Dinge im Rahmen dessen lernen, was man bereits kennt.“

Ob für Big Data oder persönliche Daten: Miller sieht die Strömung als Informations-Ökologie-Modell, das er während einer Whiteboards-Diskussion vor 20 Jahren erfand. „Wir haben die Informations-Ökologie nun seit geraumer Zeit als Modell verwendet und finden es gut, egal, ob man über digitale Informationen, Papierdokumente oder sogar das gesprochene Wort spricht", sagt Miller. „Wir finden etwas Interessantes, entscheiden uns, es zu behalten und bauen anschließend darauf auf, indem wir alles, was wir wissen, mit anderen teilen und dann beginnt der Zyklus von Neuem.“

Kontextuelle Informationen – an Menschen angepasst

(Bild: DataCenter-Insider)

„Momentan arbeiten wir hart daran, eine neue Art der Information zu schaffen, die sich dem annähert, wie wir – als Menschen – die Welt verstehen“, sagt Miller, „Alles, zusammengefügt mit allem, in einem einzigen Kontext verbunden.“

Miller glaubt weiterhin, dass die stärkeren Sharing-Funktionen das Potenzial in sich tragen, Dienstleistungen dramatisch zu verbessern, während gleichzeitig für eine bessere Kontrolle der Privatsphäre gesorgt wird. Er bemerkte einmal: „Heute kann mir Amazon neue Bücher oder Produkte empfehlen – die auf meiner Kaufhistorie basieren – das ist aber auch schon alles.

Das Gleiche gilt für Netflix und andere. Wenn ich selektiv wählen könnte – und es ist wichtig, dass ich diese Wahl habe – und mehr über mich selbst erzählen könnte, dann könnte man mir wesentlich bessere Empfehlungen geben – auch für andere Dinge, die ich vielleicht benötigen würde. Zum Beispiel könnte ich Informationen über mein Lieblingsessen oder diätetische Einschränkungen mit dem Restaurant, das ich besuchen möchte, teilen und es könnte das Menü ganz speziell auf mich „zuschneidern“, sozusagen.

Mehrwert oder Bedrohung?

Laut Miller bietet dieser personenbezogene Ansatz auf lange Sicht einen Mehrwert. Es entstünde eine reelle Win-Win-Situation, denn die Unternehmen, mit denen man Geschäfte mache, würden den einzelnen Menschen besser kennen und wären dadurch in der Lage, bessere Produkte zu liefern. Und das ginge weit über Bücher, Filme, elektronische Patientenakten oder Restaurantbesuche hinaus.

Zudem sei es so, dass die wachsende Anzahl der aktiven Kommunikationsgeräte unser Leben „aufpeppen“ würden, indem sie miteinander kommunizieren und dadurch eine persönliche Datenbank aufbauen könnten, über die wir eine individuelle Kontrolle hätten. Man könnte dies mit Social Media vergleichen, deren inhaltlicher Wert erst durch die Nutzer und durch die Teilung der Informationen geschaffen wurde.

Mach mich schlauer!

(Bild: frei)

Miller sieht die persönlichen Big Data-Anwendungen gar nicht so weit von der Welt der Internet-Foren und des Social Media entfernt, auch wenn mit einem nahtlosem Cross-Plattform-Ansatz und mit Analysefunktionen in industriellem Ausmaß gearbeitet wird. Hier können Informationen mit anderen Menschen geteilt werden, die sie benötigen könnten – selbst wenn sich diese Menschen nicht kennen und nichts voneinander wissen.

Miller nennt dies „Ad-hoc-Bezugsgruppen“ und führt ein Beispiel an: „Nehmen wir an, ich entdecke ein Problem, sei es nun ein defektes Software-Update oder ein Datenstau. Ich kann dies einem entsprechenden Service mitteilen und Menschen im Vorfeld alarmieren lassen, die ansonsten betroffen wären und gar nicht wüssten, dass sie ein Problem haben oder dass eines besteht. Das ist spannend.“

Der Mensch ist unersetzlich

Ein weiterer Grund, weshalb Miller das Individuum als Schlüssel zur zukünftigen Erschließung von Big Data sieht, ist seine Überzeugung, dass unabhängig davon, wie clever die Maschinen auch immer werden sollten, sie das kognitive Denken des Menschen zwar ergänzen, nicht jedoch ersetzen können. Einige „Propheten“ aus dem Analysten-Lager glauben, man brauchte keine Menschen mehr dabei, denn wir haben ja alle Daten und dazu die Intelligenz und müssten jetzt nur noch an der Kurbel drehen, um die passenden Antworten zu bekommen.

„Ich sehe das Ganze auf einer symbiotischen Basis und bin der Meinung: Lasst uns die Maschinen klüger machen – um die Menschen klüger zu machen durch eine dichte persönliche und intelligente Interaktion zwischen Mensch und Maschine – angepasst an die Fähigkeiten des Einzelnen – diese Vorgehensweise ist besser und stärker als alle Algorithmen, die jemals erfunden wurden“, so Miller.

Die Kehrseite der Medaille

Miller sieht im blinden Vertrauen in Daten und Maschinen aber auch eine Gefahr. „Die Finanzkrise des Jahres 2008 sollte uns hier ein warnendes Beispiel geben, wie erschreckend Dinge aus dem Ruder laufen können, wenn Modelle außerhalb ihrer Grenzen eingesetzt werden und dazu noch von Menschen, die ihre Grenzen nicht kennen – vergleichbar mit jemandem, der mit falschen GPS-Daten auf dem Meer treibt – dann darf man sich nicht wundern, wenn schlimme Dinge passieren und in die falsche Richtung laufen – nur weil man den Daten gefolgt ist.“

Denken in größeren Dimensionen tut Not

Unternehmen, die das Thema Big Data verfolgen und glauben, es handle sich dabei nur um ein Tool, um Produkte effizienter verkaufen zu können, denken in die falsche Richtung. Die Produkte wären wesentlich effektiver, wenn man die Unternehmen ermutigen würde, das Denken zu erweitern. „Die Fähigkeit, dem Einzelnen damit persönlich zu dienen, um klüger zu werden und ein besseres Leben zu führen, ist eine große Chance“, sagt Miller.

Er setzt hinzu: „Das Gleiche gilt natürlich auch für die Unternehmen. Die IT sieht den Anwender oft nur als jemanden, dem sie Zugang zu irgendwelchen Daten oder Programmen verschafft. Wie wollen dies aber auf den Kopf stellen und jeden Menschen zum Zentrum seines eigenen kleinen Universums machen. Macht man ein Individuum klüger, dann macht man damit auch die Gesellschaft klüger.“

Im Jahr 2006 kürte das „Time Magazine“ Miller in Anerkennung seiner Verdienste um die Gestaltung des heutigen Informationszeitalters zur „Person des Jahres“. Sollten Millers Visionen Wahrheit werden, dann dürfen wir uns auf die zentrale Rolle, die Big Dat in der Welt von morgen spielen könnte, eigentlich freuen.

Der Autor:

John Tyrrell betreibt eine Kommunikationsagentur. Sein Artikel erschien im Orgiginal unter dem Titel „Big Data Gets Personal“ in Intel-Newsletter „Adrenaline“.

(ID:42311328)