Big Data und der Boom der Maschinen Operational Technology wird die neue IT

Autor / Redakteur: Rainer Singer / Dipl.-Ing. (FH) Andreas Donner |

Dieses Jahr zeigt den Wandel, in dem sich viele Unternehmen befinden. Die Digitalisierung und das Internet der Dinge fordern eine Anpassung alter Strategien und Verhaltensweisen, und führen zur weiten Verbreitung von Software-Defined Networking, direkter Datenanalyse in Big-Data-Umgebungen sowie zum Wandel von der Informationstechnologie hin zur Operational Technology.

Anbieter zum Thema

Unternehmen müssen im Rahmen der Digitalisierng weniger auf traditionelle Informationstechnik und mehr auf Operational Technology setzen.
Unternehmen müssen im Rahmen der Digitalisierng weniger auf traditionelle Informationstechnik und mehr auf Operational Technology setzen.
(Bild: Coloures-pic - Fotolia)

In den letzten zehn Jahren haben Unternehmen einen Großteil ihres IT-Budgets dafür aufgewandt, gigantische Datenmengen zu sammeln, zu sichern und zu analysieren. Dieses Jahr werden wir einen Wandel der bisherigen Big-Data-Strategie in Unternehmen sehen: jetzt geht es um die Auswertung der Daten in Echtzeit. Zugleich wächst das Internet der Dinge (IoT) und die Prognosen über vernetzte Geräte überschlagen sich – sie sprechen von 20 bis 200 Milliarden vernetzter Geräte bis zum Jahr 2020.

Die rapide Zunahme an Geräten und Daten löst zwei Entwicklungen aus: Zum einen steigt die Komplexität der Netzwerke, was einen grundlegenden Wandel in Infrastrukturen und der Sicherheit von Netzwerken nach sich zieht. Unternehmen sehen sich zum anderen gezwungen, weniger auf traditionelle Informationstechnik und mehr auf Operational Technology oder OT zu setzen. Das US-Analystenhaus Gartner definiert OT als „Hardware und Software, die durch direkte Überwachung und/oder die Kontrolle physischer Geräte, Prozesse und Events im Unternehmen Änderungen erkennt oder selbst vornimmt.“

IoT bedeutet OT statt IT

Eine wachsende Zahl von vernetzten Maschinen kommuniziert miteinander, tauscht Daten untereinander aus und sorgt dafür, dass der Mensch nach und nach ganz aus dem Prozess ausgeschlossen wird. Das Augenmerk der IT-Abteilung wird sich daher weg vom Menschen und mehr auf die zunehmende Menge an IoT-Geräten richten. Operational Technology wird die neue IT.

Für Technologie-Experten bedeutet dies eine neue Art von Herausforderung in Verantwortung, Skalierung und technischer Anforderung.

Unternehmen implementieren vermehrt IoT-Geräte und Automatisierungstechnologien – sie erhoffen sich mehr Effizienz bei weniger Mitarbeitern. Hier setzt sich lediglich eine Entwicklung fort, die ihren Anfang vor mehr als zweihundert Jahren in der Industrialisierung nahm. Doch dieser neue Schritt wird für eine neue Art der Infrastrukturbelastung sorgen, deren negative Folgen mögliche Störungen sind, die weit über einen ausgefallenen Emailserver hinausgehen werden.

Wo bisher die Mitarbeiter die IT-Umgebung bzw. den Betrieb aller Maschinen überwachen und sicherstellen, dass diese möglichst effizient arbeiten, werden in OT-Umgebungen Maschinen sich selbst überwachen und selbstständig aktiv werden, um Probleme zu verhindern. Sie melden sich dann wiederum beim IT-Spezialisten, wenn sie Hilfe benötigen und geben exakte Anweisungen, was der Mensch wo zu reparieren hat.

Ein OT-Experte wird statt Tausenden von Angestellten Millionen, vielleicht sogar Milliarden von Geräten versorgen. Mit dem Wandel von IT zu OT werden wir den wahren „Boom der Maschinen“ erleben – hoffentlich um einiges friedlicher als dies in den Science-Fiction-Filmen mit einem gewissen Österreicher zu bewundern war.

Software-basierte Kostensenkung

Ein weiterer Wandel findet in der Architektur der Netzwerke statt: Wenn Unternehmen bisher ein Netzwerk aufsetzten, mussten sie umfassend in Hardware investieren und diese durch mehr Bandbreite als nötig überprovisionieren. Die Betriebskosten wuchsen entsprechend an. Die virtualisierte Architektur des Software-Defined Networking oder SDN setzt dem ein Ende – und findet daher in immer mehr Unternehmen Anwendung. SDN ermöglicht eine hyperkonvergierte Infrastruktur, die Anwendungen und Daten vom Rechenzentrum über Router und Switches in das Unternehmensnetz projiziert.

SDN steht dabei für einen Wandel von teuren dedizierten Hardwaresystemen zu günstigen Rechnern und Mobilgeräten mit Low-Cost-Prozessoren. Unternehmen freuen sich daher über deutlich reduzierte Kapitalinvestitionen und Betriebskosten und setzen neben Software-Defined Networking und Storage auch auf die Virtualisierung von Netzwerkfunktionen wie Routing, Firewall oder DNS.

Quellenanalyse in Big Data

Die Analyse von Big Data verlangt die Auswertung historischer Daten und Muster über einen langen Zeitraum. Bisher ging es in diesem Prozess darum, ganze Speicherstädte nach Goldklümpchen zu durchforsten, die Geschäftsprozesse tatsächlich verbessern konnten. Dies führte zu einem Fokus auf Speichermetriken und die maximalen Verarbeitungskapazitäten eines Unternehmens.

Dieses Jahr jedoch wird sich diese Konversation in eine neue Richtung bewegen. Obschon die Analyse von Big Data weiterhin bedeutend sein wird, bewegt sich der Fokus von Hadoop und der Menge an gespeicherten Daten hin zur Untersuchung multipler Pipelines, die Daten von spezifischen Quellen anliefern – dies ist auch der disruptiven Natur des Internets der Dinge geschuldet.

Sensoren in den vernetzten Geräten melden, woher die gesammelten Daten kommen und wer sie benutzt, ähnlich wie die Echtzeit-Web-Analyse im Marketing. Smarte Appliances wie Thermostate und Boiler sind in der Lage, Daten an ihre Hersteller zurückzusenden und zu melden, wo die Hausbesitzer diese einsetzen. Ein Connected Car kann Daten „nach Hause“ senden und den Autohersteller über Betriebszustand, Standort und Umgebung informieren. Der Hersteller ist so in der Lage, Software-Updates aufzuspielen, um die Leistung des Autos und seine Benutzung zu verbessern, sowie möglicherweise aufkommende Probleme frühzeitig zu adressieren.

Rainer Singer
Rainer Singer
(Bild: Infoblox)

Unternehmen werden sich daher zunehmend darauf konzentrieren, diese Daten-Pipelines in Echtzeit direkt von der Quelle zu analysieren, bevor die Informationen in Data Lakes verschwinden. So können Unternehmen Langzeittrends besser identifizieren und ihre Produkte vorausschauend anpassen.

Über den Autor

Rainer Singer ist Systems Engineering Manager Central Europe bei Infoblox.

(ID:44037052)