Suchen

Kommentar von Harald Weimer, Talend Wie geht es weiter mit dem Internet der Dinge?

Autor / Redakteur: Harald Weimer / Nico Litzel

Kaum jemand zweifelt daran, dass schon in naher Zukunft immer mehr „Dinge“ vernetzt werden. Dadurch entstehen viele neue Daten. Sehr viele neue Daten. Vor allem aber werden nicht mehr die Verbraucher Herren der Technologie sein, sondern die Industrie: Gesundheitsdienstleister, Energieriesen, Transportwesen, Luftfahrt, um nur einige Beispiele zu nennen.

Firmen zum Thema

Der Autor: Harald Weimer ist Geschäftsführer der Talend Germany GmbH
Der Autor: Harald Weimer ist Geschäftsführer der Talend Germany GmbH
(Bild: Talend Germany)

Die zunehmende Verbreitung intelligenter Geräte und Sensoren schafft neue Wertschöpfungsmöglichkeiten, birgt aber gleichzeitig auch Herausforderungen für Unternehmen, die sich diese Technologie zunutze machen möchten. Doch obwohl dieser Datenboom das Potenzial hat, die Industrie in einer Weise nach vorne zu bringen, die man nie für möglich gehalten hätte, verfügen zurzeit nur wenige Unternehmen über die passenden Technologien oder Geschäftsmodelle, um die Leistungsfähigkeit des Internet of Things (IoT) wirklich nutzen zu können.

Was also müssen Unternehmen über die flächendeckende Verbreitung von Sensoren und vernetzten Geräten wissen und wie können sie sich vorbereiten, ohne das Risiko einzugehen, von womöglich dynamischeren und flexibleren Mitbewerbern überholt zu werden? Wir wollen hier vier Aspekte erwähnen, die solche Unternehmen im Blick behalten sollten:

Smart Meters für einen klügeren Planeten

Betrachten wir zunächst einmal den Einfluss intelligenter Zähler – sogenannter „Smart Meters“ (in der Art, wie sie die Talend-Data-Masters-Sieger m2ocity und Springg verwenden) – auf das Datenwachstum. Jedes einzelne Gerät erzeugt pro Jahr ca. 400 Megabyte an Daten. Klingt nicht nach so sehr viel, oder? Trotzdem kommt dabei schon ein recht ansehnlicher Bestand zusammen. Eine aktuelle Studie des US-Medienunternehmens Bloomberg prognostiziert, dass 2017 weltweit bereits 680 Millionen Smart Meters installiert sein werden. Und diese werden ein Datenaufkommen von sage und schreibe 280 Petabyte pro Jahr generieren.

Vielleicht kommt jetzt die Frage auf, was das mit einem „klügeren Planeten“ zu tun hat. Dann sehen wir uns einmal Springg an. Springg ist ein internationales Softwareunternehmen, das sich auf die Übermittlung landwirtschaftlicher Daten sowie die Entwicklung entsprechender Software- und Sensortechnologien spezialisiert hat. Mithilfe von Talend-Software kann Springg die Daten auswerten, die durch die Messung von Bodenproben durch mobile Labore des Unternehmens in aller Welt erfasst werden. Anhand dieser Informationen kann Springg Landwirte zu ihren Böden und verwendeten Düngemitteln beraten, wodurch diese ihre Ertragsziele drastisch steigern können. So trägt Springg zur Ernährung der Welt bei.

Daten in den Wolken

Wer nach weiteren Bereichen sucht, in denen das maschinengenerierte Datenaufkommen zunimmt, sollte den Blick gen Himmel richten. Nach einem Bericht von Wikibon ist die Zeit in der Luftfahrtindustrie reif für Innovationen im Bereich der Big Data Analytics. Bei jedem Flug können abhängig von seiner Dauer bis zu 40 Terabyte Daten erzeugt werden. Mithilfe dieser Daten lassen sich Flugbewegungsmuster analysieren, Düsenfunktionen optimieren, neue Routen entwickeln und Ausfallzeiten senken.

Das führt zu einer datengestützten Entscheidungsfindung in der Art, wie sie den E-Commerce bereits revolutioniert hat. Fluggesellschaften, die in der Lage sind, ihre Big Data in Echtzeit zu analysieren und umzusetzen, werden am Ende einen erheblichen Wettbewerbsvorteil haben.

Nennen wir als Beispiel Air France/KLM. Jeder einzelne Airbus A380 des Unternehmens ist mit knapp 24.000 Sensoren ausgestattet, die über Smart Meters 1,6 Gigabyte Daten pro Flug generieren. Mithilfe dieser Daten werden Pannen bereits erkannt, bevor sie auftreten: Die Smart Meters ermöglichen eine Erkennung potenzieller Defekte bereits 10 bis 20 Tage vor ihrem Auftreten und folglich auch die frühzeitige Einleitung erforderlicher Reparaturmaßnahmen. Hierdurch wird vermieden, dass die Flugzeuge länger am Boden bleiben müssen als notwendig, was für das Unternehmen nicht nur teuer wäre, sondern sich auch auf Service und Rendite auswirken würde.

Machine Learning und Data Science

Daten sind das Lebenselixier eines Unternehmens. Es geht dabei nicht nur darum, so viel wie möglich davon zu sammeln, sondern sie auch zu analysieren und ihnen ihre Geheimnisse entlocken zu können. In dem Maße, wie Unternehmen zur Entscheidungsfindung auf Daten angewiesen sind, setzen sich Data Science und Machine Learning immer stärker durch. Machine Learning (maschinelles Lernen) ist eine Form der künstlichen Intelligenz: Computer können aus Beispielen lernen und auf Basis des Erlernten Entscheidungen treffen.

Auf diese Weise lassen sich bestimmte Aufgaben im Bereich Data Science automatisieren. Und angesichts der schieren Masse von Daten, die von Millionen von IoT-Geräten generiert werden, ist eine solche Automatisierung gewiss durchaus sinnvoll. Spark MLlib etwa wird dank seiner zahlreichen Machine-Learning-Algorithmen, die Kundensegmentierung, Prognosen, Klassifizierungen, Regressionsanalysen und vieles mehr gestatten, immer beliebter. Die Kombination aus Machine Learning und den riesigen Datenbeständen wird für Unternehmen vieles einfacher machen, wenn es darum geht, die auf vernetzten Geräten erzeugten Informationen besser zu nutzen und die Nadeln im IoT-Heuhaufen zu finden.

Operationalisierung der Analytik

Überall heißt es, dass wir nun im „Goldenen Zeitalter“ von Big Data leben. Insofern mag es etwas überraschend sein zu erfahren, dass die meisten Unternehmen das volle Potenzial der gesammelten Daten nicht ausschöpfen. Vielmehr wird, wie eine von McKinsey publizierte Studie zeigt, heutzutage noch nicht einmal 1 Prozent aller IoT-Daten tatsächlich zur Entscheidungsfindung genutzt.

Weshalb? Schließlich werden IoT-Daten heute in erster Linie für Alarmsysteme oder Echtzeitsteuerung genutzt, nicht jedoch für Optimierungen, Predictive Analytics oder Prescriptive Analytics. Außerdem ist die Implementierung von Machine Learning in der Realität kein Kinderspiel. Daten müssen organisiert und bereinigt werden. Es kann sehr lange dauern – bis zu mehrere Monate – bis ein Modell Produktionsreife erreicht hat. Das gilt vor allem, wenn sich die Analysemodelle häufig ändern (was eine Menge Updates notwendig macht), die Programmierung zum großen Teil manuell erfolgt usw.

All dies sind Umstände, die Unternehmen, die auf Daten setzen wollen, nicht unbedingt begeistern werden. Doch es gibt eine Lösung: Unternehmen setzen native Open-Source-Technologien wie Talend auf der Basis von Spark, Spark Streaming und Spark Machine Learning zur Big-Data-Integration in Echtzeit ein und erhalten so entscheidungsrelevante Daten – ganz ohne manuelle Codierung.

(ID:44093228)