IT-Service-Optimierung bringt Licht ins Daten-Dunkel IoT-Chaos begrenzt den Nutzungsgrad auf 1 Prozent

Autor / Redakteur: Per Bauer* / Ulrike Ostler

Das Internet der Dinge stellt Rechenzentren vor viele Herausforderungen: Datensicherheit, Server-Management, Datenspeicherung und Netzwerk-Zugehörigkeit. Das heißt: Rechenzentren müssen in Zukunft nicht nur viel mehr Daten speichern und sichern, sie müssen Input wie Output auch gleichzeitig nach geografischem Ursprung und Relevanz unterscheiden.

Anbieter zum Thema

(Bild: Henrik5000/ iStock.com)

Bis 2025 wird das Internet der Dinge (IoT) ein wirtschaftliches Potenzial von elf Billionen Dollar aufweisen (heute 3,9 Billionen Dollar) und damit etwa elf Prozent der Weltwirtschaft einnehmen, wie eine aktuelle Studie von McKinsey zeigt. Mit der Vielzahl an neu gewonnenen Daten können Unternehmen ihre Wirtschaftsmodelle analysieren und durch Optimierung von Prozessen und Auslastungen den Return on Investment langfristig steigern.

In der Realität sieht das aber ganz anders aus: Aktuell werden nur etwa ein Prozent des gesamten Big-Data-Volumens analysiert und verwendet – der Rest liegt noch ungenutzt in den zum Teil bereits an der Kapazitätsgrenze arbeitenden Rechenzentren. Mit der richtigen Optimierungs-Software und Predictive Analytics können IT-Verantwortliche ihre Daten heute zielgerichtet verwenden und Rechenzentren auf effiziente Weise auslasten.

Eine weitere Herausforderung ist die Vernetzung des Konsumenten. Käufer, Ware, Produzent und Verkäufer sind im IoT vernetzt. Dadurch bekommen Unternehmen jede Sekunde neue Daten und das 24 Stunden am Tag.

Hochkonjunktur für Rechenzentren

Ein Beispiel: Ein Produktionsbetrieb bezieht seine Rohmaterialien aus Ghana, fertigt diese in einer indonesischen Fabrik zu einem Endprodukt und verschifft die fertige Ware zum Großhändler nach Deutschland. Dieser adressiert den Einzelhandel. War es früher gängige Praxis, die Verschickung von Gütern und deren Empfang zu dokumentieren, gibt das IoT die Möglichkeit, die Schritte der Wertschöpfungskette deutlich intensiver auszuwerten. Von der Fertigung über Transport, Lagerung und Verkauf können verschiedenste Informationen abgefragt werden.

Um über den Warenfluss informiert zu sein, bringt das Unternehmen einen IoT-Tracker an Waren, Fertigungsanlagen und Transporteinheiten an. Von diesem Moment an werden durch jede Bewegung des Produkts neue Daten produziert, die wiederum zur Analyse in einem Rechenzentrum zu Verfügung stehen. Damit lassen sich beispielsweise folgende Fragen beantworten: Wie lange dauert die Auslieferung? Wo und warum gibt es Unterbrechungen in der Wertschöpfungskette? Wann und wo werden die Produkte verkauft?

In Zukunft wird jedes dieser Unternehmen sein individuelles Business-Modell und die Infrastruktur auf die Anforderungen des Internet der Dinge anpassen müssen. Prognosen zu Folge werden im Jahr 2020 mehr als 5 Milliarden Menschen durch circa 50 Milliarden Dinge vernetzt sein – das bedeutet Hochkonjunktur für Rechenzentren, denn das Datenvolumen wird sich bis dahin verzehnfachen.

Der Kampf mit der Komplexität und der Geschwindigkeit

Die Herausforderung liegt hier in der Komplexität des Problems und der schnellen Weiterentwicklung. Ein Ozean an Daten kommt auf die Unternehmen zu, und die IT wird mit hunderttausend Datapoints aus verschiedensten Orten und Zeiten zu kämpfen haben. Jede IT wird sich die Frage stellen müssen, wie relevante Daten in dieser Flut identifiziert werden können.

Angesichts anschwellender Datenstöme werden sich bis 2017 bereits 90 Prozent der Rechenzentren umstrukturiert haben.
Angesichts anschwellender Datenstöme werden sich bis 2017 bereits 90 Prozent der Rechenzentren umstrukturiert haben.
(Bild: Volker Schlichting/ iStock.com)

In dem konkreten Beispiel der Wertschöpfungskette werden in Zukunft nicht nur die Verschickung und der Empfang der Güter erfasst, sondern alle Daten, die von IoT-Trackern in der gesamten Supply Chain aufgezeichnet werden. Das können sowohl Informationen von beweglichen und unbeweglichen Objekten oder auch Personen sein.

Um die Menge an anfallenden Daten sinnvoll zu nutzen, muss eine Hierarchie geschaffen werden, durch die nur relevante Daten gespeichert und später ausgewertet werden. Dadurch lassen sich der Datenverkehr und der benötigte Speicherplatz im Rechenzentrum minimieren. Im Falle unseres Beispiels würden dann etwa nicht die gesamte Wertschöpfungsgeschichte des Produkts an das Rechenzentrum geschickt, sondern anhand intelligenter Algorithmen und Predictive Analytics Ausreißer erfasst, die auf Probleme oder drastische Veränderungen im Vorgang hindeuten, identifiziert und als relevante Daten an das Zentrum weitergeleitet. Der Informationsstrom ist zu destillieren und in eine gemeinsame Sprache zu übersetzen, die das ganze Unternehmen versteht und basierend darauf Anpassungen vornehmen kann.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Rechenzentren müssen sich also zeitnah auf die steigenden Datenströme einstellen, wenn die betreibenden Unternehmen aus den Informationen einen Vorteil ziehen möchten. So prognostiziert IDC Cisco System, dass bis 2017 bereits 90 Prozent der Rechenzentren eine Umstrukturierung dieser Art durchlaufen haben, um mit den neuen digitalen Gegebenheiten Schritt halten zu können.

Auf Rechenzentren kommen aber auch noch weitere Veränderungen zu: Beispielsweise wird erwartet, dass Daten lokal und nicht mehr gebündelt in einem Rechenzentrum gespeichert werden, das heißt, die IoT-generierten Daten der besagten indonesischen Fabrik werden in einem regionalen Rechenzentrum untergebracht, während die Daten in Deutschland in einem deutschen oder europäischen Rechenzentrum gespeichert werden. Für die Sammlung und Analyse der verschiedenen Datenformate muss das Rechenzentrum die Herkunft aus unterschiedlichen globalen Standorten erkennen und bündeln. Für den Produktionsbetrieb selbst soll sich aber nichts ändern, da der Zugriff auf alle Daten zu Analysezwecken gewährleistet bleibt.

Optimierungssoftware für besseren Überblick

Die richtige Optimierungssoftware kann an dieser Stelle durch intelligente Datenerfassung weiterhelfen. Dafür werden zunächst Leistungsdaten erfasst und anhand automatisierter Mechanismen auf zukünftige Eventualitäten analysiert. Durch die unterschiedlichen Datenformate und Server-Standorte sollten Analyse-Prozesse im Idealfall übergreifend auf allen SQL-basierten Datenspeichern, Leistungsdatenbanken Dritter und benutzerdefinierten, unternehmensinternen Tools anwendbar sein.

Die Daten müssen daher nicht an einem Ort gebündelt sein, sondern werden trotz unterschiedlichen Quellorten in herkömmlichen Speichern oder privaten und öffentlichen Clouds gemeinsam analysiert. Ein Unternehmen spart dadurch vor allem Geld und Zeit und steigert durch effiziente Prozesse nachhaltig die Geschäftsproduktivität.

Aber auch das Unternehmen selbst kann zur Pflege des Rechenzentrums beitragen. So können IT-Verantwortliche durch eine Optimierungssoftware beispielsweise Daten, die durch private IoTs der Mitarbeiter entstanden sind, einfach aussortieren und diese vom Datenfluss ins Rechenzentrum ausschließen. Somit gelangen nur die für das Unternehmen entscheidenden Daten an den langfristigen Speicherplatz, das heißt, nur Daten, die dem Unternehmen einen Mehrwert bieten.

Herausforderung für Kapazitäts-Management

Die Umstrukturierung der Rechenzentren durch das Internet der Dinge beeinflusst insbesondere die Arbeit der Service-Optimierer und Kapazitätsplaner. Ihre Hauptaufgabe ist es, Daten zu sammeln und sie miteinander in Beziehung zu bringen. Das Internet der Dinge eröffnet nun eine weitere große Datenquelle, die für diese Zwecke verwendet werden kann.

Per Bauer, der Autor, ist Director of Global Services bei Teamquest.
Per Bauer, der Autor, ist Director of Global Services bei Teamquest.
(Bild: Peter Nilsson, Ateljé Marie Fotostudio AB)

Dennoch hat sich die Planungsarbeit durch IoTs stark verändert. Einerseits können Kapazitätsplaner auf mehr Daten als zuvor zurückgreifen, andererseits ist deren Bandbreite exponentiell gestiegen. Insbesondere Daten, die individuelle Bedürfnisse und Angebotsnachfragen widerspiegeln. Gelingt es dem IT-Verantwortlichen, diese vielfältigen Daten mit bereits bekannten Trends abzugleichen und anschließend beispielsweise anhand der Warteschlangentheorie zu analysieren, lassen sich so sehr genaue Vorhersagen zu zukünftigen Ereignissen treffen.

Die IT benötigt eine Software, die den Verantwortlichen eine auf sie abgestimmten Sicht auf die Geschäftsprozesse und -systeme ermöglicht, um bei der Entscheidungsfindung zu helfen und auf potenzielle Risiken frühzeitig reagieren zu können.

Um Kapazitätsplaner bei dieser Herausforderung zu unterstützen, ist die zuvor erwähnte Hierarchisierung im Rechenzentrum essentiell. Nur wenn bereits aussortierte und relevante Daten für Predictive Analytics gewährleistet sind, kann eine zielgenaue Vorhersage gemacht werden. Dieser Aspekt spielt insbesondere in die Hände des Risiko-Managements, denn je genauer die Vorhersagen, desto geringer die Wahrscheinlichkeit einer Fehlentscheidung. Fügt ein Unternehmen beispielsweise eine neue Dienstleistung zu seinem Portfolio hinzu, können Kapazitätsplaner mit präziser Genauigkeit vorhersagen, mit welchen Mehrkosten das Unternehmen für die Service-Erhöhung rechnen muss. Sind die Datensätze in diesem Fall nicht präzise, kann eine Fehlkalkulation dem Unternehmen nachhaltig schaden.

Chancen dank Industrie 4.0

Tatsächlich bietet die Datenvielfalt, die das Internet der Dinge mit sich bringt, große Chancen, besonders im B2B-Sektor. Unternehmen, die jetzt schon in die Zukunft investieren und die IT-Struktur entsprechend aufstellen, um die für sie relevanten Daten zu sichern, zu analysieren und entsprechend aufzuarbeiten, um Strukturen und Prozesse zu optimieren, werden durch den Informationsvorsprung profitieren. Tatsächlich lassen sich Prozesse verschlanken, Risiken kalkulieren und Ausfälle minimieren.

Aber nicht nur das ist durch die richtigen Software-Tools möglich. Während sich die IT in der Vergangenheit mehr im Hintergrund eines Unternehmens abgespielt hat, werden Kapazitätsplaner in der Zukunft auf Grund ihrer Fähigkeit, Daten sinnvoll und effektiv den Unternehmenszielen anzugleichen, einen wesentlichen Anteil am Unternehmenserfolg haben. Des Weiteren werden Unternehmen und Rechenzentren in den kommenden Jahren immer enger zusammenarbeiten müssen, um die Daten für beide Seiten nachhaltig zu speichern und zu verarbeiten.

* Per Bauer ist Leiter Global-Services-Team bei Teamquest.

Artikelfiles und Artikellinks

Link: Teamquest

(ID:43800368)