Kommentar von Xavier Guerin, Datastax

So optimieren Sie den Erkenntnisgewinn

| Autor / Redakteur: Xavier Guerin / Nico Litzel

Der Autor: Xavier Guerin ist VP Western Europe bei Datastax
Der Autor: Xavier Guerin ist VP Western Europe bei Datastax (Bild: Datastax)

Smartphones, Tablets, Autos: Alles wird mit jedem und jeder wird mit allem vernetzt. Die US-Marktforscher des Analystenhauses Gartner prognostizieren für das Jahr 2020 einen Anstieg an Internet-of-Things-Geräten auf 20 Milliarden. Damit vervierfacht sich die aktuelle Anzahl an internetfähigen und angeschlossenen Geräten. Steigender Traffic in den Netzwerken ist die Folge. Bereits jetzt bringen etwa fünf Milliarden Nutzer weltweit das Mobilfunknetz an seine Grenzen, schlicht weil sie rund um die Uhr online, also always-on sind.

Das Internet of Things (IoT) – im industriellen Umfeld genutzt – erlaubt es Unternehmen, Produktionsprozesse weiter zu automatisieren und effizienter zu gestalten. Ausfallrisiken und damit finanzielle Verluste lassen sich reduzieren. Ein Beispiel aus der Logistikbranche: Unternehmen überwachen mit IoT-Sensoren die Transportwege der Güter in LKWs, Containern und Waggons. So sind sie in der Lage, frühzeitig auf Verspätungen und Lieferverzögerungen zu reagieren und Anschlusstransporte von der Schiene auf die Straße oder vom Schiff auf die Schiene effektiv zu organisieren.

Das größte Containerschiff der Welt, die OOCL Hong Kong, befördert über 21.400 Standardcontainer an Ladung. Angenommen, jeder einzelne dieser Container ist mit einem IoT-Sensor ausgerüstet und sendet Standortdaten. In den Zielhäfen verfolgen Reederei und Logistikunternehmen auf diese Weise detailliert, wo welcher Container wann gelöscht und auf die Schiene oder die Straße umgeladen wird. Sie behalten dadurch ebenfalls den weiteren Lieferweg im Blick.

Allerdings steigt die Menge an Daten, die sich in den Datenbanken der Unternehmen ansammelt mit jedem neuen IoT-Gerät, jedem LKW oder Waggon, der dem Netzwerk hinzugefügt wird, rapide an. Das setzt natürlich voraus, dass Unternehmen über entsprechende Datenmanagementsysteme verfügen, mit denen sie diese Daten auch nutzen und analysieren können, um intelligente Entscheidungen treffen zu können.

Eine stabile Infrastruktur für die Analyse der Daten in Echtzeit ist dabei aber nur ein erster Schritt. Mit dem kommenden Mobilfunkstandard 5G entsteht im Netzwerk erst die notwendige Bandbreite für die steigende Anzahl an IoT-Endgeräten. Als Beispiel dafür steht die Automobilbranche mit ihren Connected-Car-Konzepten. Immer mehr Kraftfahrzeuge sind heute mit Sensoren ausgestattet, die Funktionen ermöglichen, für die auf das Mobilfunknetz zurückgegriffen werden muss. Erst der Umstieg auf die neue Mobilfunktechnologie (5G) verspricht, diese steigende Anzahl an Geräten in den Griff zu bekommen. Eine schnellere Datenübertragung ist dabei nur ein schöner Nebeneffekt. Für IoT-Geräte, die industriell genutzt werden, ist sie allerdings unabdingbar, da diese sich in Echtzeit austauschen müssen.

Das richtige Datenmanagement – ohne Echtzeit geht es nicht

Eine kleine Logistikfirma mit vier oder fünf LKWs bewältigt das Erfassen und Auswerten der IoT-Sensordaten aus ihren Fahrzeugen noch problemlos. Überträgt man das aber auf Branchenriesen mit mehreren hundert oder tausend LKW und Containern, werden die Daten zu einem echten Problem. Hier kann die Cloud helfen.

Der Trend geht nicht umsonst zur Wolke: Cloud-Computing und Streaming-Daten verändern die Nutzung von Datenbanken und die Auswirkungen sind tiefgreifend im Hinblick auf Sicherheit, Wartung, Effizienz und Kosten. Mit der Verbesserung der Kommunikationswege hat sich die Herausforderung im Umgang mit Daten im Laufe der Jahre gewandelt. War zuvor die reine Erhebung für Unternehmen ein Hindernis, so sind es heute Verwaltung und Analyse. Unternehmen brauchen somit heute einen modernen Data Layer, der hochskalierbar und immer verfügbar ist. Schließlich geht es bei weitem nicht mehr darum, Big Data nur zu bewältigen. Damit haben allerdings viele Unternehmen Schwierigkeiten. Sie schaffen es nicht, mit dem technologischen Fortschritt auf Augenhöhe zu bleiben.

Die Verwaltung und Analyse ihrer Daten in Echtzeit, stellt immer noch eine besondere Herausforderung dar. Langsame Netzwerke, Legacy-Systeme und Daten-Silos erschweren den Zugriff auf Daten und machen eine Verarbeitung in Echtzeit oft unmöglich. Diese Systeme halten mit der heutigen radikal vernetzten Umwelt nicht mehr mit. Die Folge: Unternehmen verfügen nicht über ein Gesamtbild aller Remote-Operationen.

Damit die Daten den gewünschten Mehrwert liefern, ist es erforderlich, dass Unternehmen diese in Echtzeit in einen Kontext setzen. Nur dann treffen sie auf Basis der Daten auch wirklich schnell fundierte Entscheidungen. Am Beispiel der Logistikbrache betrachtet bedeutet das: Mit IoT-Sensoren ausgestattete Güterwaggons werden durch die gesendeten Daten gezielt verfolgt und im Labyrinth der Schienen an den Umschlagplätzen auf die Straßen exakt lokalisiert. Auch Verspätungen können so kompensiert werden. Kann beispielsweise ein mit Sattelzügen beladener Güterzug aufgrund unvorhergesehener Ereignisse den Fahrplan nicht einhalten, erstellt das Unternehmen effizient und reaktionsschnell einen Abkoppel- und Abladeplan. So wird für die Sattelzüge, die zum sofortigen Umladen auf die Straße bestimmt sind, einem weiteren Zeitverlust vorgebeugt.

Daten jederzeit verfügbar

Der Schlüssel zum Erfolg liegt in Datenbanken und Datenmanagementlösungen, die einerseits hochskalierbar und andererseits in der Lage sind, Lasten intelligent zwischen multiplen Rechenzentren und Clouds zu verteilen. Moderne, verteilte Datenbanken verfügen über einen umfassenden Data Layer mit der entsprechend nötigen Always-on-Architektur. Die Anforderungen an Datenbanken werden weiter steigen und die Systeme eine noch größere Flexibilität erfordern.

Beispielsweise kann eine einzelne Anwendung verschiedene Komponenten, Kundenprofile, Kataloge und andere Datentypen haben, die jeweils unterschiedliche Anforderungen an die Verwaltung und Speicherung der Daten in derselben Datenbank stellen. Mit anderen Worten, sie müssen in der Lage sein, Daten von überall und zu jeder Zeit zu schreiben und zu lesen und sie müssen die Daten sofort über das Netzwerk synchronisieren. Der größte Vorteil einer verteilten Architektur liegt allerdings in ihrer Maßanfertigung für Cloud-Computing.

Es dreht sich alles um die Cloud

Privat, öffentlich oder eine Kombination aus beidem: laut des RightScale 2017 State of the Cloud Reports haben 85 Prozent der Unternehmen eine Multi-Cloud-Strategie. Davon nutzen heutzutage die meisten einen Public-Cloud-Infrastruktur-Anbieter für ein oder mehrere Anwendungsprojekte. Das zeigt: eine Datenmanagementstrategie für eine Hybrid Cloud zu haben, ist heute eine entscheidende Notwendigkeit für die Geschäftsfähigkeit.

Mit einer für die Hybrid Cloud konzipierten Datenbank nutzen Unternehmen die Tools verschiedener IaaS-Anbieter oder wechseln nahtlos zwischen den Anbietern. Dadurch erzielen sie unglaubliche Datenmengen. Ein Beispiel: ein Unternehmen verwendet den Azure IoT Hub, benötigt die Daten aber ebenfalls in der Oracle Cloud für Dashboards. Eine Hybrid-Cloud-Strategie erlaubt es Firmen, über verschiedene Anbieter hinweg zu operieren. Die Migration der Datenbank schließlich ist ohne Ausfallzeiten innerhalb weniger Tage oder Stunden durchführbar. Dabei ist die Autonomie der Daten ein ausschlaggebendes Kriterium. So behalten Unternehmen die Kontrolle über ihre Daten, unabhängig davon, wo sie sich befinden. Letztendlich bedeutet das die Flexibilität, Daten in jeder Art von Umgebung (Public, Hybrid, Private oder Multi Cloud) zu speichern, auszuführen und zu verwalten und dies mit einer granularen Datenzugriffskontrolle sicher zu tun.

Auf das richtige System kommt es an

Die Anforderungen an Datenbanken werden weiter steigen und die Systeme eine noch größere Flexibilität erfordern. Mit einem hochskalierbaren und geografisch verteilten Datenbankmanagementsystem erhalten Unternehmen unmittelbaren und ständigen Zugriff auf ihre Daten – in Echtzeit, und darauf sind sie heutzutage angewiesen. Verteilte, hochskalierbare Datenbank- bzw. Datenmanagement-Lösungen wurden gezielt zu diesem Zweck entwickelt. Genutzt in einer Hybrid-Cloud-Umgebung, erlaubt diese die Migration der Daten innerhalb kürzester Zeit zwischen den Anbietern und das bei der vollen Kontrolle über die Daten. Nur so können Unternehmen den größtmöglichen Nutzen aus den verfügbaren Daten aller Quellen ziehen. Für viele wird genau das den Unterschied zwischen Erfolg und Misserfolg ausmachen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45537261 / Infrastruktur)