Data Sourcing Big Data aus dem IoT schöpfen
Anbieter zum Thema
Die Akquisition und Aufbereitung von Daten für digitaltransformierte Geschäftsmodelle zählt zu den zentralen Voraussetzungen für den Erfolg datengetriebener Unternehmen. Mit Big Data aus dem IoT (Internet of Things) können auch kleinere Organisationen zu Technologieführern aufschließen.

Das Aufkommen datengetriebener Geschäftsmodelle in Verbindung mit den sinkenden Kosten von Sensorik haben das Interesse der Chefetagen des Mittelstands an IoT-Lösungen und Big-Data-Ökosystemen erheblich gesteigert.
Die Anzahl von IoT-Endpunkten – darunter vernetzte Autos, Maschinen der Industrie 4.0 und sonstigen cyberphysischen Systemen bis hin zu Wearables und anderer Unterhaltungselektronik der Verbraucherklasse – wächst unaufhaltsam. Bei den weltweit rund 23,9 Milliarden Geräten, die im November 2020 ans Internet angeschlossen waren, dürfte es sich laut Daten der IoT Analytics GmbH aus Hamburg bereits bei fast 13,8 Milliarden um reine IoT-Endpunkte handeln. Als „Nicht-IoT-Geräte“ haben die Analysten in dieser Zusammenstellung Smartphones, Tablets, Laptops, Desktops und stationäre Telefone klassifiziert.
Die Kosten von Sensorik fallen ins Bodenlose. Der Durchschnittspreis eines IoT-Sensors fiel von 1,30 US-Dollar im Jahr 2004 auf schätzungsweise ca. 0,38 US-Dollar im Jahr 2020, glauben die Analysten von AT Kearney. Doch die hohe Marktfragmentierung erschwert die Integration und verlangsamt das Tempo der Implementierungen.
Das Wachstum scheint sich zudem noch zu beschleunigen. Laut einer aktuellen Prognose von Mordor Intelligence soll der globale Markt für IoT-Sensoren im Zeitraum von 2021 bis 2026 eine CAGR-Wachstumsrate in Höhe von 24,05 Prozent verzeichnen. Dieses robuste Wachstum wird voraussichtlich durch den verstärkten Fokus der Branche auf die Bereitstellung eines vernetzten Ökosystems und die Standardisierung der 3GPP-Mobilfunktechnologien für das Internet der Dinge vorangetrieben, so die Analysten von Mordor Intelligence.
:quality(80)/p7i.vogel.de/wcms/3d/85/3d8543a58241dd494889a119fc80dcb9/98704195.jpeg)
Digitale Transformation
So funktionieren datengetriebene Geschäftsmodelle mit Big Data
Sensoren liefern typischerweise Umgebungsdaten wie Temperatur-, Druck-, Standort-, Beschleunigungs-, Feuchtigkeits- und andere Metriken sowie Aktivitätslogs, chemische und elektromagnetische Messwerte und sonstige Informationen, die sie an der Netzwerkkante in vordefinierten Zeitabständen erfassen. Zur Auswertung dieser Datenströme durch fortgeschrittene Software war bisher typischerweise eine Übertragung in die Cloud (oder zumindest in ein nahe gelegenes Micro-Rechenzentrum) fällig.
Cloud-zentrische Verarbeitung von Big-Data-Messwerten aus IoT/IIoT-Sensorik hat jedoch nicht zu unterschätzende Nachteile. Sie verursacht zum einen – ungeachtet der Bereinigung, Aggregation und anschließender Komprimierung der anfallenden Daten – relativ hohe Kosten drahtloser Konnektivität und geht zudem mit hohen Cyberrisiken und unvermeidlichen Latenzen einher. Anwendungen mit Nahe-Echtzeit-Anforderungen bleiben in diesem Szenario auch infolge möglicher Störungen der Konnektivität generell außen vor.
Edge AI auf neuromorphen Chips
Mit dem Aufkommen neuromorpher Hardware fallen die technischen Hürden für die Ausführung von anspruchsvollen KI-Arbeitslasten an der Edge. Das gilt als eine wichtige Voraussetzung für latenzsensible Anwendungen wie autonomes Fahren. Die sogenannte Edge AI ruft hierzu ausgefuchste KI-Systeme auf den Plan.
Die Edge AI verlagert die Intelligenz direkt in die Endgeräte, möglichst nah an die Sensorik der Netzwerkkante, die „Fühler“ der Unternehmens-IT und -OT (also Betriebstechnik, Engl. Operations Technology). Denn intelligente, autark lernfähige Systeme nehmen in Unternehmensprozessen an Bedeutung zu, um die Entscheidungswege zu verkürzen und latenzoptimierte Automatisierung cyberphysischer Systeme im „selbstfahrenden“ Unternehmen Realität werden zu lassen.
Denn so müssen intelligente Systeme nicht mehr zwangsweise stets in Verbindung mit einer Cloud stehen. Das stärkt die Datensouveränität des Unternehmens.
Das Aufkommen neuer Hardware-Architekturen wie neuromorpher Chips verspricht, den Energieverbrauch von Big-Data-Arbeitslasten drastisch zu reduzieren, um die latenzoptimierte Ausführung fortgeschrittener KI-Arbeitslasten näher an der Netzwerkkante zu ermöglichen: die sogenannte Edge AI (kurz für Edge Artificial Intelligence, also Künstliche Intelligenz an der Netzwerkkante).
Der hohe Energieverbrauch klassischer KI-Systeme hindert die Bereitstellung der Arbeitslasten in Edge-Nutzungsszenarien.
Klassische Systemarchitekturen können das menschliche Denkvermögen kaum abbilden. Denn in konventionellen Systemarchitekturen liegen den Ressourcenklassen Speicher und Compute getrennte Hardwareimplementierungen zu Grunde – im Gegensatz zum „echten“ neuronalen Gewebe. So werden die Daten in klassischen KI-Systemen kontinuierlich hin und her „geschaufelt“, was zum hohen Energieverbrauch beiträgt und Edge-Nutzungsszenarien de facto ausbremst. Hier kommt die neuromorphe Hardware ins Spiel.
Neuromorphe Systeme ziehen ihre Inspiration aus der Funktionsweise des menschlichen Gehirns. Neuromorphes Computing lässt sich durch den Einsatz neuartiger Materialien nach dem Vorbild biologischer Systeme in analogen Chips implementieren oder in konventionellen digitalen Schaltkreisen nachbilden. Darüber hinaus besteht die Möglichkeit, die Funktionsweise neuromorpher Systeme in Softwarecode nachzuahmen, zum Beispiel mithilfe von Deep Neural Networks (DNN) oder Spiking Neuronal Networks (SNN; auf Deutsch: „gepulste neuronale Netze“). Deep Neural Networks haben sich zum Beispiel bei der Bilderkennung bewährt.
Spiking Neural Networks simulieren die Kommunikation biologischer Neuronen, indem sie jeweils kurze Impulse, die sogenannten „Spikes“, an die anderen Nervenzellen „feuern“. Neuromorphe Systeme bestehen generell aus vielen solchen kleinen Recheneinheiten, die massiv parallel arbeiten.
Die Forschung an neuromorphen Chips findet in Deutschland unter anderem im Rahmen des ECSEL-Projekts TEMPO (Technology & hardware for nEuromorphic coMPuting) statt. Ein Industriekonsortium mit Beteiligung der Fraunhofer EMFT, IIS und IPMS, der Infineon Technologies AG und der Robert Bosch GmbH entwickelt analoge wie auch digitale neuromorphe Chips für intelligente Sensorsysteme mit einer leistungsstarken energiesparenden Signalverarbeitung. Die Forscher avisieren eine Reduktion der Leistungsaufnahme „um einige Größenordnungen“. Dies dürfte die Latenz entsprechend senken und die Verarbeitung von Big Data direkt in IoT-Endgeräten in einem nie dagewesenen Umfang schaffen. Das Vorhaben erhielt Fördermittel vom Bundesministerium für Bildung und Forschung (BMBF).
Konnektivität für Big Data
Um aus den Big Data, die aus IoT-Sensorik strömen, einen Mehrwert zu schöpfen, müssen Unternehmen für die Konnektivität ihrer IoT-Endpunkte Sorge tragen.
In diesem Kontext stoßen LPWAN-Technologien (Low Power Wide Area Network, Niedrigenergieweitverkehrsnetz) auf ein wachsendes Interesse. LPWAN ermöglicht es kleinen erschwinglichen Geräten, mehrere Jahre lange über große Distanzen zu funken und dabei mit einer einzigen Batterieladung auszukommen. Im Gegensatz zu G5 benötigt LPWAN keine besondere Infrastruktur. Der Standard ist in rund drei von vier IoT-Anwendungen im Einsatz.
Einer der am weitesten verbreiteten Protokolle für die Kommunikation batteriebetriebener IoT-Geräte über LPWAN ist unter der Bezeichnung LoRa bzw. LoRaWAN bekannt (kurz für Long Range Wide Area Network). Dieses offene LPWAN-Protokoll ist in über 100 Ländern verfügbar.
Der globale Mobilfunkstandard 5G sollte dank Innovationen wie der RAN-Virtualisierung (via Network Slicing) eine effizientere Nutzung der verfügbaren Bandbreite in einer Vielzahl von Nutzungsszenarien ermöglichen und damit die Kosten der M2M-Konnektivität drastisch senken.
Network Slicing wendet die Prinzipien der Infrastrukturvirtualisierung auf den Mobilfunk an. Es verbindet hierzu drei Technologien:
- Den 5G-NR-Standard (5G New Radio),
- SDN-Technologie (kurz für Software Defined Network), um das Edge- und Core-Netzwerk zu segmentieren und
- NFV (Network Functions Virtualization), ein architektonisches Konzept, mit dem sich die Komponenten der 5G-Kontrollebene von der Hardware abstrahieren und mithilfe einer Softwareschicht steuern lassen.
Dank Network Slicing lassen sich verschiedene Anwendungen trotz ihrer stark differenzierten Anforderungen in Bezug auf die Datenrate, die Latenz, die Verbindungsdichte oder die Verfügbarkeit erweiterter Funktionalität in einem einzigen Frequenzband gleichzeitig bereitstellen.
5G-Dienste adressieren drei hauptsächliche Nutzungsszenarien:
- Enhanced Mobile Broadband (kurz: eMBB): Internet-Zugang über drahtlose Konnektivität mit hoher Bandbreite für Video-Streaming in UltraHD-Auflösung, Streaming von 360-Grad-Panoramavideos und virtuellen Realitäten.
- Massive Machine-Type Communications (kurz: mMTC): Ein Internetzugang zum Übersenden von aggregierten Rohdaten durch Mess-, Erfassungs- und Überwachungsgeräte der Industrie 4.0 und verwandter Anwendungen. Die technischen Feinheiten von mMTC wurden erstmals im Zusammenhang mit 3GPP Release 13/14 LPWA ausgearbeitet. Hierbei handelt es sich um Niedrigenergieweitverkehrsnetzwerke unter anderem für schmalbandiges Internet der Dinge (kurz: NB-IoT).
- Ultra-Reliable Low-Latency Communications (kurz: URLLC): Fabrikautomation, autonomes Fahren, smarte Fabrik, Smart Grid, Roboterbetrieb und andere zeitbewusste Nutzungsszenarien (also Zeitstempel-fähig) mit garantierter Latenz von weniger als 1 Millisekunde (1 ms).
Doch 5G stellt recht hohe Ansprüche an die Hardware der IoT-Endpunkte und die Netzwerkinfrastruktur. Während sich die Kosten für LoRa-fähige Sensoren auf rund 20 Cent bis 50 Euro-Cent pro Stück belaufen, schlagen vergleichbare Sensoren mit 5G-Anbindung mit ca. 30 Euro pro Stück zu Buche.
Einige Geräte, die LoRa verwenden, sind auch mit schmallbandigen IoT-Netzen (NB-IoT) verbunden. Bei NB-IoT handelt es sich um einen LPWAN-Standard aus der Feder derselben Marktakteure, die auch die Protokolle für 4G und 5G entwickelt hatten. Es trumpft mit einer höheren Bandbreite als LoRaWAN, weist jedoch gewissen Defizite im Hinblick auf die Datenverschlüsselung auf.
Wireless Sensor Networks
Die Erfassung von Big Data an der Edge erfolgt in der Praxis im Rahmen sogenannter drahtloser Sensornetzwerke (Engl. Wireless Sensor Networks). Hierbei handelt es sich um Rechnernetze von Sensorknoten, die entweder in einem Infrastruktur-basierten Netz (mit vorkonfigurierten Basisstationen) oder in einem sich selbst organisierenden Ad-hoc-Schwarm per Funk kommunizieren, um die benötigten Messwerte aus ihrer Umgebung abzufragen und weiterzuleiten.
Ad-hoc-Konfigurationen können den sogenannten Smart-Dust umfassen, einen chemischen Ersatz für kostspielige Sensoranordnungen in Nanotechnik, welcher sich mit elektromagnetischen Feldern steuern und durch Sensoren aus der Ferne ablesen lässt.
Fazit
Mit Edge AI steht die nächste Generation von intelligenten Systemen vor der Türe. Fallende Kosten von Sensorik und die explodierende Rechenleistung neuromorpher Chips machen Wertschöpfung as Big Data an der Netzwerkkante in völlig neuen Anwendungen möglich.
(ID:47634802)