Suchen

Entwicklungsstrategien Softwarequalität ist der entscheidende Faktor im IoT

| Redakteur: Franz Graser

Smarte, vernetzte Geräte, die untereinander und mit großen Rechnersystemen kommunizieren – das ist die Vorstellung vom Internet of Things (IoT). Doch bevor sie Wirklichkeit wird, sind noch einige Fragen zu klären.

Firma zum Thema

Fenway Park, Stadion der Boston Red Sox: Eine IoT-Lösung erlaubt präzise Wettervorhersagen, damit Spielabsagen minimiert werden können.
Fenway Park, Stadion der Boston Red Sox: Eine IoT-Lösung erlaubt präzise Wettervorhersagen, damit Spielabsagen minimiert werden können.
(Bild: US Air Force / Rick Berry / CC0 )

Die Boston Red Sox haben ein Problem. Die Tribünen im Stadion eines der beliebtesten Baseballteams der USA sind größtenteils nicht überdacht. Das Management des Clubs ist daher an präzisen Wettervorhersagen interessiert, um das Risiko zu minimieren, ein Spiel absagen zu müssen. Die Lösung: eine spezielle Form des Internets der Dinge. Die Red Sox nutzen einen sehr präzisen Wetterservice, der von einem französischen Elektrokonzern bereitgestellt wird. Für den Dienst werden Informationen aus einer Fülle von lokalen Sensoren ausgewertet und als Webservices bereitgestellt, die zum Beispiel über das Smartphone abgerufen werden können.

Auch sonst geht es im Internet der Dinge immer um das Messen. Physikalische Daten aller Art werden aus der Umgebung aufgenommen, ausgewertet und interpretiert. Das können Daten wie Herzschlag, Blutdruck oder Körpertemperatur sein, die Drehzahl einer Maschine, der Füllstand eines Tanks oder der Luftdruck und die Windgeschwindigkeit. Die daraus gewonnenen Informationen lassen sich dann aggregieren und analysieren und helfen bei der Entscheidungsfindung.

Ergänzendes zum Thema
Big Analog Data

Egal, ob Vitaldaten, Reifendruck, Bremskraft oder Sonneneinstrahlung: Das Internet der Dinge verbindet die analoge mit der digitalen Welt. Big Data ist also letzten Endes Big Analog Data. Um diese Daten möglichst effizient ermitteln und verarbeiten zu können, vertritt Jamie Smith, Direktor für das Produktmarketing eingebetteter Systeme bei National Instruments, die Philosophie, die digitale Messtechnik möglichst nahe an die analoge Welt heranzubringen, statt sie in Backend-Servern zu lokalisieren. Der Grund: „Moores Gesetz lässt Nielsens Gesetz, das das Wachstum der Netzwerkbandbreite beschreibt, immer weiter hinter sich – und zwar um den Faktor 1,3. Rechenleistung wächst um 30 Prozent stärker als Bandbreite. Das Ziel ist also, so viele Daten wie möglich an Ort und Stelle zu verarbeiten. Denn man wird immer mehr Rechenperformance als Netzbandbreite haben.“ Intelligente Sensoren sollen die analogen Daten deshalb möglichst schon dort analysieren, wo sie erfasst werden.

Moore's Law legt Basis für immer kleinere smarte Geräte

Als der US-Informatiker Mark Weiser (1952 - 1999) zum ersten Mal den Begriff des „ubiquitous computing“ prägte, also die überall vorhandene Rechenleistung vorhersagte, extrapolierte er im Wesentlichen den Trend, den Moores Gesetz bereits in den sechziger Jahren formuliert hatte: Nämlich die Verdopplung der Transistoren auf einer angenommenen Flächeneinheit über einen Zeitraum von zwei Jahren. Weiser hatte das Vordringen von PCs und Heimcomputern in die Büros und Kinderzimmer beobachtet und sah voraus, dass sich der Trend der Miniaturisierung fortsetzen würde. Mittlerweile sind nicht mehr die PCs, sondern die Smartphones der beherrschende Formfaktor.

Generell liegt dem IoT der Gedanke zugrunde, dass physikalische Objekte ein Gegenstück im Cyberspace besitzen sollen. Die Verbindung zwischen der physikalischen und der virtuellen Instanz erfolgt über eine eindeutige Identifizierung, etwa eine URL. Um ein Internet der Dinge aufzubauen, braucht man laut Günter Obiltschnig, Gründer der Firma Applied Informatics, zunächst die Dinge selbst: smarte vernetzte Produkte, die einen Computerbaustein (etwa einen Mikrocontroller), Sensorik und Software besitzen. Dazu kommen eine leistungsfähige Kommunikations- und eine Rechnerinfrastruktur, die die Daten verarbeiten.

Je kleiner, leichter und preiswerter die Rechnerarchitekturen werden, desto mehr Geräte und Sensoren erobern sie. Die fortschreitende Vernetzung erlaubt es zudem, diese Geräte an das Internet anzubinden und sie mit leistungsfähigen Computing-Infrastrukturen zu verknüpfen, die die erzeugte Datenfülle auswerten.

Big Data muss sich zu Smart Data wandeln

Für diese Computing-Infrastrukturen wird der plakative Begriff Big Data gebraucht. Entscheidend ist hier aber, dass es nicht auf das Daten-Crunching – also die Verarbeitung möglichst vieler Daten – an sich ankommt, sondern darauf, aus der Datenmenge sinnvolle Informationen zu destillieren, die zur Entscheidungsfindung dienen können. Technische Durchbrüche wie In-Memory-Datenbanken und Non-SQL-Datenbanktechniken haben zwar dazu beigetragen, Informationen schneller zu verarbeiten.

Entscheidend bleibt jedoch, dass Big Data zu Smart Data werden muss, um für den Menschen nutzbar zu sein. In Forschungsprojekten wie SIDAP (Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie) werden Architekturen entwickelt, die die Datenströme so aufbereiten, dass sie zu Analysen herangezogen werden können. Ziel ist es, das Wissen der Wartungsteams und der Betreiber von Maschinen und Anlagen anhand der Wartungsdaten zu erweitern.

Letzten Endes dürfte auch dies nur ein Zwischenstadium sein. Auf die herkömmlichen IoT-Infrastrukturen, bei denen den über das Internet angebundenen Sensoren und Geräten eine mehr oder weniger zentralisierte Big-Data-Infrastruktur gegenübersteht, dürfte schon bald eine dezentralisierte Netzstruktur folgen, bei der die Daten dort ausgewertet werden, wo sie entstehen. Denn: „Unsere Netze sind nicht für 50 Milliarden angeschlossene Geräte im Jahr 2025 ausgelegt“, sagt Mark Cudak, Principal Research Specialist beim Telekommunikationsausrüster Nokia. Ins selbe Horn stößt Jamie Smith, Direktor für das Produktmarketing eingebetteter Systeme bei National Instruments: „Moores Gesetz lässt Nielsens Gesetz, das das Wachstum der Netzwerkbandbreite beschreibt, immer weiter hinter sich. Die Rechenleistung wächst um 30 Prozent stärker als die Bandbreite.“

Zwar sollen die Fortschreibung des LTE-Funkstandards sowie 5G-Techniken, die im Millimeterband arbeiten, Entlastung bringen. Doch noch ist nicht sicher, wann diese Techniken in ausreichendem Maß zur Verfügung stehen. Viele Anwendungen, unter anderem im Bereich der Telemedizin, benötigen konstantere und verlässliche Netzverbindungen, als sie heute möglich sind. An-drea Goldsmith, Professorin an der renommierten kalifornischen Stanford University, kann sich zum Beispiel Remote- Operationen vorstellen, bei denen Ärzte ihre chirurgischen Instrumente über das Netz steuern.

Datensicherheit bleibt eine Dauerbaustelle

Eine weitere Herausforderung lässt sich mit den Begriffen Standardisierung, Datenschutz und Datensicherheit umschreiben. Insbesondere die Datensicherheit ist eine Dauerbaustelle, da im Bereich der Gerätesoftware noch allzu oft nach dem Prinzip „verbaut und vergessen“ verfahren wird, wie der IT-Sicherheitsexperte Hans-Joachim Hof, Professor an der Technischen Hochschule Ingolstadt, bemerkt. Mit dem IoT verbundene Geräte werden viel zu selten mit Sicherheits-Updates versorgt. In letzter Konsequenz fordert Professor Hof eine deutlich bessere Softwarequalität für IoT-Geräte und stellt die provokative Frage: „Wann haben wir uns denn daran gewöhnt, dass Software schlechte Qualität hat?“

Dieses Problem, so Hof, werde bei den Herstellern von IoT-Produkten oft noch gar nicht erkannt. Das liege zum einen daran, dass dort meist Ingenieure aus der Elektrotechnik tätig seien, die nicht aus der Gedankenwelt der Informatik kämen. Zum anderen seien der Preisdruck und die zu geringen IT-Ressourcen bei IoT-Produkten Hemmnisse. Die Implementierung von Sicherheitsmechanismen wird deshalb noch viel Energie kosten.

Dieser Beitrag ist ursprünglich auf unserem Schwesterportal Elektronikpraxis.de erschienen.

(ID:44421773)