Kommentar von Uwe Becker, Orange Business Services

Vom Datenmüll zum Datengold

| Autor / Redakteur: Uwe Becker / Nico Litzel

Der Autor: Uwe Becker ist Head of Global Services Germany & Austria bei Orange Business Services
Der Autor: Uwe Becker ist Head of Global Services Germany & Austria bei Orange Business Services (Bild: Orange Business Services)

Wer hat sie nicht schon oft gesehen oder nutzt sie sogar selbst regelmäßig? Praktische Lebenshelfer wie Fitness-Tracker oder Smartwatches sind nicht mehr wegzudenken. Kein Wunder also, dass viele Anbieter die Armbänder als IoT-Goldgrube ausgemacht haben und das vorhandene Potenzial mit ausschöpfen wollen. Der Wert könnte für Firmen jedoch noch größer sein, wenn man tatsächlich die komplette Menge an Daten von IoT-Devices in Betracht ziehen würde.

Bereits 2015 hat McKinsey vorausgesagt, dass 2025 das IoT bis zu 11,1 Billionen US-Dollar pro Jahr an Wert generieren wird. Um dieses Wachstum, das rund elf Prozent der Weltwirtschaft entspricht, tatsächlich erreichen zu können, müssen allerdings einige Hürden sowohl technischer als auch organisatorischer und behördlicher Natur genommen werden. Allen voran besteht die Herausforderung, die Unmengen an anfallenden Daten in Echtzeit zu verarbeiten und zu analysieren, um aus ihnen Nutzen ziehen zu können.

Woher kommen die Daten?

Um die anfallenden Datenmengen, von denen wir hier sprechen, zu veranschaulichen: Ein gemeinsamer Report von Quartz und Hitachi schätzt, dass ein vernetztes Auto künftig 25 Gigabyte an Daten pro Stunde in die Cloud überträgt. Das entspräche etwa einem Dutzend Spielfilme in Full-HD-Auflösung und übersteigt die Kapazität vieler gängiger Smartphones. Dabei ist diese Menge an Daten eigentlich wenig überraschend, wenn man bedenkt, wie viele Sensoren heutzutage in einem Auto stecken und welche Daten diese aufnehmen. So gibt es inzwischen Sensoren, die uns über den Reifendruck, über den Benzinverbrauch oder die Reichweite informieren. Dazu kommen Sensoren zur Verkehrszeichenerkennung, Spurhalteassistenten, Abstandsmesser, Notbremsassistenten und sonstige elektronische Fahrhilfen.

Doch die Entwicklung stoppt nicht auf den Straßen. Das Industrial Internet of Things macht sich diese Entwicklung ebenfalls zunutze. Auch auf großen Containerschiffen finden sich beispielsweise zunehmend Sensoren, die unablässig Daten sammeln. Diese geben Auskunft über die Fahrtroute, das Wetter, den Status von Wartungsarbeiten beziehungsweise den Wartungszustand, die Maschinen oder den Status der Ladung. Hinzu kommen Applikationen, die den Treibstoffverbrauch messen und optimieren oder auch die Zeit zwischen Wartungsintervallen maximieren. Dadurch können Reedereien teils erhebliche Kosten einsparen.

Warum entsteht so viel Datenmüll?

Der ursprüngliche Gedanke hinter der Erhebung so vieler Daten ist oft sehr einfach. Unternehmen versuchen zum Beispiel, die Leistung von Systemen oder Abläufen zu verbessern, Kosten zu optimieren oder höchste Sicherheitsstandards zu gewährleisten. Dafür müssen zunächst einmal viele Daten erhoben werden, was viel Geld kostet. Aber nur ein Bruchteil der Daten ist für diese Anwendungsfälle relevant und nützlich. Der Rest wird ungenutzt verworfen. In einem Extrembeispiel aus dem McKinsey-Report wurde eine Ölplattform untersucht. Auf dieser kommen rund 30.000 Sensoren zum Einsatz, deren Daten hauptsächlich zur Kontrolle der Anlage und zur Störungsfindung genutzt werden. Hier wird nur etwa ein Prozent der erhobenen Daten auch tatsächlich genutzt, während der Rest als Datenmüll verfällt.

Ein Teil des Problems ist dabei die fehlende Integration verschiedener Datensätze. Im Beispiel der Ölplattform bleiben die Daten stets vor Ort und werden nicht zur weiteren Analyse aufs Festland geschickt. So erreichen sie auch nicht die Entscheidungsträger. Dabei könnte eine Analyse weiterer Daten durchaus die Effektivität zum Beispiel bei der Ausrüstungswartung erhöhen und damit zu einer Senkung der laufenden Kosten beitragen.

Aus dem Datenmüll brauchbare Informationen ziehen

Die Datenerfassung ist nur der erste Schritt für Unternehmen, um zunächst überflüssig erscheinende Daten zu ihren Gunsten zu nutzen. Um nützliche Informationen aus den Daten zu ziehen, müssen sich Unternehmen mit den drei ursprünglich von Doug Laney postulierten „Vs“ der Big-Data-Analyse auseinandersetzen, die im Laufe der Zeit um weitere Vs ergänzt wurden. Hier beschränken wir uns auf die vier wichtigsten, die drei ursprünglichen Vs ergänzt um Veracity (Richtigkeit):

  • Volume (Menge): Jeden Tag können weltweit Datenmengen in einer Größenordnung von bis zu 2,3 Billionen Gigabyte generiert werden.
  • Variety (Varianz): Die entstehenden Daten können alles beinhalten – vom Tweet bis hin zu Daten von medizinischen Geräten oder Wasserzählern.
  • Velocity (Geschwindigkeit): Viele Daten, wie beispielsweise von vernetzten Autos, sind wertvoller, wenn sie in Echtzeit analysiert werden.
  • Veracity (Richtigkeit): Unternehmen müssen sichergehen, dass die Daten, die sie sammeln, auch korrekt sind.

Dies benötigt aber einen Ansatz, mit dem sich mehrere Datenströme bündeln, übertragen und in Echtzeit analysieren lassen. Dabei sollten die Daten über zertifizierte und geprüfte Connected Devices wie Sensoren oder Kameras erfasst werden. Die Datenübertragung findet anschließend über eine passende Verbindungslösung wie beispielsweise Satellitennetzwerke oder Mobilfunknetze statt. Zur Analyse der Daten bedarf es schließlich eines guten Tools, das aus den Daten die richtigen Rückschlüsse ziehen und im Idealfall auch bereits Lösungsansätze zur Verfügung stellen kann, wie die Daten gewinnbringend verwertet werden können.

Für das Datenmanagement braucht es Softwarelösungen, die sowohl Geräteverwaltung aus der Ferne, Fernbearbeitung als auch Virtualisierung unterstützen. Außerdem wichtig sind End-to-End-Verschlüsselung und Datenschutz sowie die Integration der IT-Systeme.

Gartner sagt für das Jahr 2020 voraus, dass mehr als die Hälfte aller unternehmenswichtigen neuen Prozesse und Systeme in Großunternehmen eine Form von IoT-Element beinhalten werden. Für den Erfolg dieser IoT-Systeme sind umfassende Analysen unabdingbar. Die so gewonnenen Daten, die bislang ungenutzt bleiben, könnten in vielen Fällen zur Optimierung von Abläufen eingesetzt werden, was zu einer Kostensenkung und damit Umsatzsteigerung für Unternehmen führen würde. Auch Ausfallzeiten könnten verringert werden, wenn beispielsweise Fehler durch die Auswertung der Daten schon frühzeitig erkannt oder sogar antizipiert werden können, bevor sie zu einem Betriebsausfall führen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44673032 / Data Sourcing)