Bedeutung des Storage in der Big-Data-Welt Datenspeicherung im Wandel

Von Christian Marhöfer* |

Anbieter zum Thema

Welchen Einfluss haben die verschiedenen Technologien auf die Datenspeicherung – und worauf müssen sich Unternehmen in Hinblick auf die Zukunftssicherheit einstellen?

Tempus fugit – die Zeit verfliegt. Und sie verändert alles, auch die Storage-Welt.
Tempus fugit – die Zeit verfliegt. Und sie verändert alles, auch die Storage-Welt.
(Bild: gemeinfrei / Pixabay)

Ob Industrie oder Privathaushalt – wir erzeugen heute mehr Daten als jemals zuvor, und ein Ende der Entwicklung ist vorerst nicht in Sicht. Im Rahmen von Globalisierung und digitaler Transformation erzeugt die Menschheit permanent Echtzeitdaten in der Größenordnung von 2,5 Quintillionen Bytes – was der noch immer unvorstellbaren Menge von 2,5 Trillionen Festplatten mit einer Kapazität von je 1 TB entspricht. Technologien und Ideen wie das Internet of Things (IoT) befeuern diesen Trend zusätzlich.

Gleichzeitig steigt der Bedarf, schnell, gezielt und unkompliziert auf diese Informationen zugreifen zu können. Wie beeinflusst die globale Entwicklung speziell die Speicherbranche, und was sollten Unternehmen hierzu bedenken?

Die Treiber des Fortschritts: Wer braucht’s?

Spricht man heute von Datenspeichern, geht es nicht mehr nur um die statische Archivierung von Informationen, sondern deren Nutzbarmachung. Gesammelt wurden Daten schon immer, aber selbst im digitalen Zeitalter wurde ihr wahres Potenzial erst nutzbar, sobald es technisch möglich wurde, sie aus der Ferne zu aggregieren und automatisiert zu analysieren – Stichwort Web 3.0. Erst darüber entsteht etwa eine Lieferkette, die vom hintersten Zulieferglied bis hin zum Hauptfabrikanten global und in Echtzeit überwacht und organisiert werden kann, denn nur so können Streamingdienste ihren Kunden nicht nur eine Bibliothek an Filmen anbieten, sondern ihnen eigenständig Vorschläge unterbreiten, die auf deren Nutzungsverhalten basieren.

Weitergehende Technologien – 5G-Netze, Künstliche Intelligenz (KI) oder auch Machine Learning – sind ohne Cloud-Computing und die zugrunde liegenden Speicherkapazitäten in der Größenordnung von ganzen Exabytes undenkbar; in manchen Branchen kann es gar bei der Übertragungsrate um jede eingesparte Millisekunde gehen. Kurz gesagt: Es geht immer um Kapazität und Schnelligkeit – aber nicht um – oder besser für – jeden Preis.

Größer, schneller, weiter?

Mit dem Aufstieg des Web 3.0 erlebte die Speicherbranche eine echte technologische Revolution. Speicherten Firmen noch vor zehn Jahren ihre Daten ausschließlich inhouse, vertrauen heute Unternehmen zunehmend großen Anbietern, die sich in einem Abonnement-Bezahlmodell der Speicherung und dem Schutz von Daten und ganzen Software-Infrastrukturen in riesigen Rechenzentren annehmen – nicht ohne guten Grund, sparen sie damit doch die Kosten und Mühen, die nötig sind, diese Aufgaben selbst zu erledigen, wozu sie möglicherweise zu einem angemessenen Management gar nicht in der Lage wären.

Für die weiter oben geschilderten Aufgaben reichen jedoch nicht einmal diese Anbieter aus. Die Geschwindigkeit, mit denen sich Daten von A nach B fortbewegen können, ist nicht zuletzt physisch begrenzt. Die Latenzen, die durch einen solchen zentralisierten Ansatz entstehen, können den Anforderungen einer echten IoT also nicht genügen. Die Lösung besteht in einer Dezentralisierung mithilfe von kleinen Rechenzentren mittels des sogenannten Edge-Computings, wobei es nicht so sehr auf die Speicherkapazität, sondern auf die Übertragungs- und auch Verarbeitungsgeschwindigkeiten ankommt. Auch deshalb kommt in den Edge-Rechenzentren häufig die neueste verfügbare Technologie zum Einsatz – Klasse schlägt Masse.

Festplattentechnologie: Unternehmen müssen nachziehen

Gerade wenn es nicht um die reine Kapazität, sondern um Verarbeitungsgeschwindigkeiten geht, kommen Unternehmen wie auch Rechenzentrenbetreiber nicht an Solid State Drives (SSDs) vorbei. Zwar leisten klassische Festplatten (HDDs) zur reinen Speicherung von Daten auch heute noch gute Dienste, doch da sie mit beweglichen mechanischen Teilen arbeiten, ist ihre Lese- und Schreibgeschwindigkeit sehr begrenzt. Schon ältere SSDs erzielen in dieser Hinsicht Werte, die zehn- bis 15-mal schneller sind, und verbrauchen dabei noch deutlich weniger Energie – und doch reicht dies noch immer nicht für Web 3.0 aus. Der Grund darin liegt im genutzten Advanced-Host-Controller-Interface-Protokollstandard (AHCI) und der Serial-ATA-Schnittstelle, die seinerzeit noch für HDDs entwickelt worden waren.

Mit Non-Volatile Memory Express (NVME) existiert jedoch mittlerweile ein spezielles Kommunikationsprotokoll für Solid State Drives (SSDs), das Übertragungsraten von über 600 MB in der Sekunde ermöglicht. Gegenüber alten SATA-basierten SSDs ist NVMe vor allem also bei der Verarbeitung großer Datenpakete im Vorteil, etwa bei der Stapelverarbeitung von Bildern oder der Übertragung vieler Videoclips, aber auch im Gaming. Im privaten Nutzungskontext ist der Standard längst etabliert, doch besonders Rechenzentren müssen noch nachziehen – und die höhere Bandbreite, geringere Latenz, Multi-Core-Unterstützung und damit höhere IOPS-Werte sprechen auch für Unternehmen deutlich für sich.

Von Hardware zu Software

Auf einer noch kleinteiligeren Ebene kommt alles noch deutlicher auf Effizienz an – nämlich bei der Programmierung. Gerade wenn wirklich ein Höchstmaß an Geschwindigkeit vonnöten ist, ist es von größter Bedeutung, Daten effizient und auch speicherbedarfsarm zu speichern und zu verarbeiten. Gute Dienste leisten hier schon Ansätze wie Komprimierung und Deduplizierung, die den Speicherbedarf deutlich reduzieren und schon zum Einsatz kamen, als bereits die reine Speicherkapazität noch deutlich teurer war als heute. Heutige Technologie bietet obendrein schon Chipsets, die mit Software-definierten Netzwerken (SDN) gekoppelt sind. Sie steuern Flash-basiert ganze Speicherplattformen, was den Energieverbrauch halbiert und dabei zugleich die doppelte Speicherkapazität bietet. Software-Defined Storage (SDS) ist in Zeiten steigender Energiekosten buchstäblich Gold wert – und zugleich deutlich nachhaltiger.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Den nächsten Schritt bietet Datenspeicherung, die über mehrere Plattformen hinweg gesteuert wird – mittels KI. Davon profitiert nicht nur die reine Effizienz in der Datenverarbeitung, menschliche Eingriffe sind nur noch in absoluten Notfällen nötig. Somit profitieren letztlich die Datenspeicherung und das Datenmanagement von genau jenen Web-3.0-Technologien, die ihren Bedarf überhaupt erst erzeugt haben.

Die Grenze des Möglichen

Die Zeichen stehen also in allen Bereichen auf Wachstum. Es wird – auch mit Blick auf das Web 3.0 – mehr dezentralisierte Daten und schnellere intelligentere Möglichkeiten geben, um auf Daten zuzugreifen und sie zu nutzen. Nichtsdestotrotz ist davon auszugehen, dass die Datenmengen, die durch Technologien wie zum Beispiel autonomes Fahren erzeugt werden, irgendwann den Punkt des Handhabbaren überschreiten werden. Denn auch Rechenzentren können nur begrenzt wachsen und stoßen hinsichtlich der verfügbaren Energie früher oder später an ihre Grenzen. Darüber hinaus müssen Aspekte der Nachhaltigkeit und des Umweltschutzes bedacht werden.

Die Menge der tagtäglich erstellten, genutzten und ausgetauschten Daten wächst rasant, und entsprechend wichtig werden zeitgemäße Datenspeichersysteme für eine Vielzahl von Unternehmen. Innovative neue Komponenten im Rahmen individuell zugeschnittener Speicherkonzepte sind deshalb wichtiger denn je. Jedoch hat jede Technik ihre Grenzen, und über kurz oder lang werden wir zusätzliche intelligentere Lösungen benötigen, um die zu erwartende Masse an Daten noch flexibel nutzen zu können.

*Der Autor: Christian Marhöfer, Regional Director DACH, Benelux und Nordics bei Kingston Technology

Aktuelles eBook

Speichertechnologien im Vergleich

HDD, Flash & Hybrid: Der passende Speicher für jeden Einsatz

eBook HDD, Flash und Hybrid
eBook „HDD, Flash & Hybrid“
(Bild: Storage-Insider)

In diesem eBook lesen Sie, welche verschiedenen Speicher es gibt und welche Vor- und Nachteile diese haben.

Die Themen im Überblick:

  • Der passende Speicher für jeden Einsatz – HDD, SSD und Tape
  • HDDs: Heimvorteil und neue Technologien
  • Flash-SSDs & Co.: wie ein geölter Blitz
  • Storage-Arrays unter die Haube geschaut – SSD, HDD und Hybrid
  • Tape: die Kunst der Langzeitarchivierung

(ID:48531263)