Suchen

„Autopilot“ für Speichersysteme Storage-Automatisierung erfordert KI

| Autor / Redakteur: Jürgen Krebs* / Dr. Jürgen Ehneß

Speicher ist von zentraler Bedeutung für die datenbasierte Economy. Egal, ob lokal auf einem Rechner oder anderen Devices, in einem Rechenzentrum oder in einer Cloud: Irgendwo müssen die ganzen Daten, die Prozesse steuern, Dokumente, Bilder, Videos et cetera am Ende physikalisch vorliegen. Die Anforderungen an den Storage haben sich aber seit den Zeiten der Mainframes enorm weiterentwickelt.

Firma zum Thema

Zur adäquaten Steuerung moderner Storage-Systeme ist ein „Autopilot“ unerlässlich.
Zur adäquaten Steuerung moderner Storage-Systeme ist ein „Autopilot“ unerlässlich.
(Bild: gemeinfrei / Pixabay )

Moderne Storage-Systeme müssen hoch-performant, problemlos skalierbar und agil sein und dürfen bei alledem auch nicht die knapp bemessenen IT-Budgets sprengen. Um Systeme optimal für jeden Bedarf auszustatten, müssen sie vor allem flexibel sein. Das bedeutet, dass jeder Prozess den benötigten Speicher zum passenden Zeitpunkt und in der Geschwindigkeitsklasse und dem Volumen erhält, wie er es benötigt.

Corona hat dies gerade erst sehr deutlich gemacht: Auf einmal arbeitete ein Großteil der Belegschaft im Home-Office, und quasi von einem Tag auf den anderen mussten Prozesse angepasst werden. Unternehmen, die bereits vorher ihre Infrastruktur modernisiert hatten, waren dabei deutlich im Vorteil.

Bei der Zahl der Applikationen und Services, die heute in einem Unternehmen anfallen, muss ständig SLA-konformer Speicher zur Verfügung gestellt, gegebenenfalls erweitert und am Ende wieder freigegeben werden. Virtuelle Maschinen, Microservices und Container erhöhen die Komplexität der gesamten Infrastruktur noch einmal – ohne Automatisierung wären diese Technologien nicht zu stemmen. Zukünftig wird dieses stark veränderte Anforderungsprofil auch den Blick auf die Kosten für Storage maßgeblich bestimmen: Nicht mehr die Hardware, sondern die Software für die Automatisierung von Management und Betrieb wird noch stärker in den Vordergrund rücken.

An Automatisierung führt kein Weg vorbei

Neben der immer stärkeren Flexibilisierung des Betriebs sorgt ein weiterer Faktor dafür, dass an der Automatisierung kein Weg vorbeiführt: fehlendes Know-how in den internen IT-Abteilungen. Der Grund dafür ist ganz einfach: Die erfahrenen Mitarbeiter, die zum Teil seit Jahrzehnten die internen Systeme aufgebaut und weiterentwickelt haben, gehen nach und nach in den Ruhestand. Mit ihnen fließt auch enorm viel Fachwissen ab. Das betrifft insbesondere auch Tools, die oft nur von einzelnen Spezialisten bedient werden konnten. Eben genau diese uns allen bekannten „handgestrickten und mundgeblasenen“ Tools.

Historisch hat sich in den meisten Rechenzentren mit der Zeit ein ganzer Zoo an Software-Werkzeugen entwickelt, die mehr schlecht als recht miteinander interagieren. Zum Teil wurden sogar Tools eingeführt, um andere Tools miteinander kompatibel zu machen. Vielerorts ist die verbliebene Rumpftruppe noch in der Lage, den Betrieb aufrechtzuerhalten. Die Einführung innovativer Technologien wie Microservices oder Container kann unter diesen Voraussetzungen nur schwer gelingen. Ganz zu schweigen von einer Weiterentwicklung der internen IT-Strategie in Richtung digitaler Transformation. Meist wird nur der Status quo zementiert. Über kurz oder lang wird gerade beim Thema Storage daher kein Weg an Automatisierung vorbeiführen.

Künstliche Intelligenz im IT-Betrieb

Automatisierung ist in der Enterprise-IT kein neues Thema, bereits zu Zeiten der Großrechner wurden Abläufe zeitlich oder eventbasiert getriggert, also gemäß dem Schema „Wenn A abgeschlossen ist, starte B“. Für Infrastrukturen, die sich dynamisch verhalten, sind solche starren Ansätze aber nicht sinnvoll, weil ständig manuelle Interventionen und Nachjustierungen erfolgen müssten. Der Schlüssel zu moderner IT-Automatisierung liegt daher in Machine Learning und künstlicher Intelligenz. Die großen Herausforderungen bei der Verbesserung der Effizienz des IT-Betriebs lassen sich dabei in vier Bereiche herunterbrechen:

  • 1. Mit einem integrierten Service-Management, das auf gemeinsamen Services aufbaut, können Unternehmen den Wildwuchs an IT-Tools eindämmen und so den Betrieb allgemein unmittelbar verbessern. Hitachi bietet hier mit seinem „Ops Center“ eine Plattform, mit der Administratoren zahlreiche Systeme über ein Konfigurationswerkzeug einrichten können. Alle VSP-Storage-Systeme lassen sich damit zu einem virtuellen System zusammenfassen, eine Erweiterung des zur Verfügung stehenden Speichers (Scale-Out) erfolgt damit bis zu 70 Prozent schneller und selbstverständlich im laufenden Betrieb. Im Falle eines Alerts hilft die einheitliche Oberfläche, mit einem Log-in Fehler auf unterschiedlichen Systemen schnell zu identifizieren und zu lösen. Darüber hinaus lässt sich das Ops Center über die offene REST API problemlos mit anderen Automatisierungswerkzeugen verknüpfen, um dem Ziel einer automatisierten IT näher zu kommen.
  • 2. Via Ops Center können Unternehmen sich auch mit einer zentralen Kontrollinstanz einen globalen Überblick verschaffen, um optimieren, planen und bei kritischen Zwischenfällen intervenieren zu können. Anstatt auf Zwischenfälle zu reagieren, kann ein prediktiver, proaktiver Ansatz gewählt werden, der auf Basis von maschinellem Lernen und künstlicher Intelligenz Muster (Patterns) erkennt, die auf Fehler hinweisen. Hitachi hat dies in einem seit mehreren Jahren laufenden Projekt für die britische Bahn (British Rail) unter Beweis gestellt: Dank künstlicher Intelligenz verbessern sich die Prognosen zur Lebensdauer einzelner Teile mit der Zeit, was unter dem Strich die Wirtschaftlichkeit kontinuierlich verbessert. Ein Dashboard kann in Echtzeit einen Überblick über den Zustand aller Systeme liefern. Dieser Bereich lässt sich auch sehr gut an einen externen Dienstleister auslagern, was wiederum die IT-Abteilung deutlich entlastet.
  • 3. Mit intelligenter Automatisierung auf KI-Basis können die überlasteten Mitarbeiter von manuellen Routinen entlastet, der Betrieb optimiert und Risiken reduziert werden. Die manuelle Bereitstellung von Storage ist zeitaufwändige und langweilige Routinearbeit – und damit auch fehleranfällig. Noch einmal komplexer wird es, wenn unterschiedliche Speicherklassen ins Spiel kommen. Mit der geeigneten Plattform kann Speicher von Bronze (SATA-Festplatten) bis Platin (schnellste Flash-Module) klassifiziert und je nach vereinbartem Service-Level-Abkommen (SLA) „smart“ automatisch provisioniert werden. Die künstliche Intelligenz im Hintergrund sorgt dafür, dass der Betrieb mit der Zeit immer reibungsloser läuft. Nach demselben Prinzip lässt sich auch eine komplette, unterbrechungsfreie Migration von Daten auf ein neues System deutlich schneller (in sieben statt 30 Schritten) durchführen.
  • 4. Mit einer auf Standards basierenden IT-Integration lässt sich die Bereitstellung von Ressourcen orchestrieren und beschleunigen. Je mehr Schnittstellen in einem System vorliegen, umso mehr Probleme gibt es grundsätzlich bei der Integration. Ziel muss es daher sein, die Zahl der Tools so weit wie möglich zu reduzieren und dabei gleichzeitig auf einen Standard wie etwa die REST API zu setzen. Das ermöglicht auch die Einbindung externer Management-Frameworks und gemeinsame Entwicklungsprojekte in einem Partner-Ökosystem.

24/7 ohne Kompromisse

Aus der Automobilbranche stammt das Konzept des „Just-in-Time“ (kurz JIT), demzufolge Teile und Komponenten von Zulieferern immer genau zum richtigen Zeitpunkt bereitgestellt werden. Ganze Lieferketten wurden so aufgebaut, dass mit minimaler Lagerhaltung die Produktion gesteuert werden kann. Nach diesem Prinzip sind auch moderne Rechenzentren konzipiert: Rechen- und Speicherressourcen werden bereitgestellt, wann und wo sie benötigt werden. Ein reibungsloser Ablauf ist dabei aber nur dann gewährleistet, wenn alle Komponenten funktionieren – fällt ein Puzzleteil aus, entstehen schnell Probleme in Form von Ausfällen oder Stillständen. Da IT-Ausfälle heute nicht mehr tolerierbar sind, müssen Sicherheitsmechanismen integriert werden, in der Regel in Form von zusätzlichen Kapazitäten bis hin zu einem (oder mehreren) gespiegelten Rechenzentrum.

Beim Thema Storage ist es ratsam, Systeme zu einem Pool zusammenzufassen. Hitachi bietet diese Option unter der Bezeichnung „Global Active Device“, kurz GAD, an. Ein Failover bei Speicherausfällen kann damit praktisch ausgeschlossen werden, weshalb Hitachi auch in der Lage ist, eine hundertprozentige Datenverfügbarkeit zu garantieren. Schwierigkeiten auf Compute-Ebene lassen sich zuverlässig mit virtuellen Maschinen adressieren, so dass ein unterbrechungsfreier Betrieb „24/7“ gewährleistet ist.

Immer den passenden Speicher

Bleibt noch das Problem der Über- beziehungsweise Unterdimensionierung des vorhandenen Storage. Während zu viel Speicher in erster Linie ein Kostenproblem ist, bringt zu wenig aus nachvollziehbaren Gründen jede Automatisierungsbemühungen an ihre Grenzen: Wo nichts ist, lässt sich auch nichts provisionieren. An dieser Stelle setzen verbrauchsabhängige Modelle wie Hitachis EverFlex an, die Unternehmen genau die Ausstattung garantieren, die sie benötigen, bis hin zu einem „Storage-as-Service“-Ansatz.

Kunde und Anbieter definieren in einem gemeinsamen Workshop die Speicheranforderungen für einen Zeitraum von beispielsweise drei Jahren. Auf dieser Basis wird im Rechenzentrum des Kunden ein System installiert, das zu einem festen Preis über die Laufzeit alle definierten SLA abdeckt. Für zusätzliche Lastspitzen kann ein Puffer integriert werden, weitere Ausbaustufen – etwa für interne Kunden – können anhand einer Preisliste klar beziffert und abgerechnet werden. Die Provisionierung per Knopfdruck aus einem vorhandenen Pool geht über das JIT-Modell sogar noch hinaus; was bereits vor Ort ist, muss nicht angeliefert werden, um im Bild zu bleiben.

Mit Autopilot Vollgas Richtung digitale Transformation

Das Thema Storage können die IT-Verantwortlichen mit einem Flex-Ansatz und modernster Storage-Technologie getrost auf ihrer Agenda abhaken. Künstliche Intelligenz sorgt in dem Konstrukt dafür, dass der „Autopilot“ für den IT-Betrieb ständig dazu lernt und besser wird. Das eröffnet Unternehmen neue Möglichkeiten, sich innovativen Zukunftstechnologien zuzuwenden und die digitale Transformation der eigenen Organisation voranzubringen.

Jürgen A. Krebs verantwortet seit 2016 das CTO Office für die Central Region bei Hitachi Vantara.
Jürgen A. Krebs verantwortet seit 2016 das CTO Office für die Central Region bei Hitachi Vantara.
(Bild: Hitachi Vantara)

*Der Autor: Jürgen A. Krebs ist seit Juli 2004 bei Hitachi Vantara tätig und verantwortet seit 2016 das CTO Office für die Central Region. Mit Hilfe seiner umfangreichen Branchenerfahrung von mehr als 30 Jahren gestaltet er die strategische Ausrichtung von Hitachi Vantara mit Fokus auf die Kernkompetenzen des Unternehmens. Der begeisterte Techniker beschäftigt sich in seiner Freizeit leidenschaftlich mit jeglicher Art von Elektronik, Motorenbearbeitung und dem Motocross.

(ID:46821970)