Anbieter von Big-Data-Speicherlösungen im Vergleich Speichersysteme für große Datenmengen

Autor / Redakteur: Holm Landrock / Tina Billo

Große polystrukturierte Datenmengen müssen nicht nur zusammengetragen und analysiert, sondern gegebenenfalls auch gespeichert werden. Daher leisten Speichersysteme einen wichtigen Beitrag für die Umsetzung von Big-Data-Szenarien. Der Big Data Vendor Benchmark liefert Informationen zu den wichtigen Playern im Markt und Anhaltspunkte zum genauen Hinterfragen der Angebote.

Firmen zum Thema

Die Anbieter von Big Data Storage.
Die Anbieter von Big Data Storage.
(Bild: Experton Group AG)

Big Data heißt schlussendlich auch „Big Storage“. Daher verdienen Speichersysteme besondere Aufmerksamkeit. Diese wurden im Big Data Vendor Benchmark 2015 der Experton Group in einer eigenständigen Kategorie betrachtet.

Lokales gegen hybrides Portfolio

Speichersysteme und Storage Appliances, die von den jeweiligen Anbietern spezifisch für den Einsatz im Rahmen von Big-Data-Projekten konzipiert sind, bilden wichtige Bausteine der IT-Infrastrukturen der Anwenderunternehmen. In die Bewertung flossen verschiedene technische Merkmale sowie die Skalierbarkeit der Lösung ein.

Viele Anbieter von Storage-Lösungen ergänzen ihr Portfolio um Speicherplatz in Private oder Public Clouds, und dieses Merkmal wurde ergänzend in der Beurteilung berücksichtigt. Reine Cloud-Storage- Angebote wurden jedoch nicht bewertet.

Einige im Markt etablierte Anbieter treten mit dedizierten Big-Data-Storage-Lösungen aus Hard- und Software sowie mit Storage Appliances im Markt auf. Begleitet und teils stark attackiert werden diese etablierten Anbieter von neu im Big-Data-Umfeld aufgetauchten Herstellern von Speicher-Hard- und Software.

Interessant ist hier die Beobachtung, dass die seit geraumer Zeit angekündigten Big-Data-Lösungen einzelner, auch etablierter, Anbieter bislang noch nicht auf den Preislisten oder im deutschen Markt aufgetaucht sind. Die Anwender können also gegenwärtig unter Umständen erst im konkreten Projektgeschäft mit der Parametrisierung der Speicherlösung beginnen.

Kriterien für Big Data Storage

Speichersysteme für Big-Data-Aufgaben müssen in wenigen Jahren schon im einzelnen Unternehmen Datenvolumina von einigen Dutzend Petabytes stabil und dauerhaft speichern können. Dabei sind neue Speicherarchitekturen notwendig, die auch für einen schnellen Zugriff auf diese Daten sorgen. Ebenfalls spielt es eine Rolle, welche Transportmechanismen innerhalb des Speichersystems und zwischen Speicher und Server verwendet werden.

Beurteilt wurde unter den vielen Merkmalen auch der Anteil an Eigenentwicklung an den jeweiligen Lösungen, so dass hier eine Differenzierung entsteht. Weitere Merkmale, die hier stellvertretend genannt sein sollen, sind die Abhängigkeit eines Anbieters von Partnern im Rahmen der Projektausführung sowie der Anteil der ergänzenden Produkte, beispielsweise Software, aus dem jeweiligen Hause.

Aus der Technologie-Perspektive wurden die Portfolios hinsichtlich klassischer auf Festplatten basierender und Flash-Speicher basierender Speichersysteme bewertet. Außerdem gehörten das Offering bezüglich mehrstufiger Speicherarchitekturen und die Hochverfügbarkeits- und Disaster-Recovery-Fähigkeiten der Speichersysteme zu den Bewertungsmerkmalen.

HANA ist ein wichtiges Element für heutige Big-Data-Lösungen. Daher wurde neben der Eignung des Storage für Big-Data-Lösungen aus dem Open-Source-Bereich und für die kommerziellen Business-Intelligence-, Business-Analytics- und Data-Warehouse-Anwendungen auch die Eignung für SAP HANA beziehungsweise eine Zertifizierung für SAP HANA als ein Kriterium in die Betrachtung einbezogen. Ebenfalls spielte eine Rolle, wie weit das Storage-Angebot in Lösungs-Angebote für Big-Data-Lösungen integriert ist.

Referenzen häufiger schon historisch

Das Ergebnis ist eine für Big-Data-Bedarfe in Deutschland maßgeschneiderte – und auch überraschende – Darstellung des Marktes, wobei sich rein technisch überlegene oder überlegen scheinende Anbieter in einem durchaus engeren Wettbewerbsfeld wiederfinden beziehungsweise sich mit möglicherweise nicht erwarteten Konkurrenten auseinandersetzen müssen.

In die Beurteilung der Wettbewerbsstärke flossen unter anderem die Verfügbarkeit von Blaupausen und Projektplänen sowie das Feedback aus dem deutschen Markt, auch anhand von nachgewiesenen Referenzen und Praxiserfahrungen im deutschen Markt ein.

Gerade aus der Fokussierung auf die Geografie Deutschland entsteht auch hier eine gegenüber einer weltweiten Einordnung deutlich differenzierte Positionierung der Anbieter.

Experton Group hat im Rahmen der Recherche festgestellt, dass viele Unternehmen – darunter auch viele Unternehmen der Leader-Gruppe – noch immer internationale Use Cases und Pilotprojekte als Referenzen anführen.

Deutsche Anbieter hinken hinterher

Das kann ein Indikator dafür sein, dass Deutschland im weltweiten Vergleich beim Big-Data-Trend tatsächlich hinterher hinkt, obwohl sich dabei weder die deutsche Wirtschaft als Anwenderseite noch die in Deutschland agierenden Anbieter wirklich etwas haben zu Schulden kommen lassen.

Bei einem so verbreiteten Begriff und der Vielzahl der Lösungen und Dienstleistungen sowie im Besonderen der Vielfalt an Definitionen ist es essenziell, dass die Unternehmen ihr Angebot und ihren Marktauftritt mit einer deutschsprachigen Website, auch als Microsite im Verbund mit den übrigen Webseiten des Unternehmens, erläutern.

Mitunter scheint es, als habe es Methode, nur englischsprachige Inhalte zu präsentieren, um möglichst allgemein und plakativ bleiben zu können und die Erläuterung in die verkaufsvorbereitende Phase und in die konkreten Vertriebsaktivitäten zu verschieben. Viele Anbieter pflegen inzwischen den Notbehelf einer deutschen Startseite oder Themenseite, die das Angebot auf knapp zwei Bildschirmseiten zusammenfasst.

Angebotskonsolidierung

Im Bereich der Speichersysteme für Big-Data-Aufgaben kam es vor, dass sich einzelne Anbieter gegenüber dem Vorjahr nur geringfügig weiterentwickelt haben. Das erlaubt die Interpretation, dass nach einer sehr heißen Hype-Phase im Zeitraum bis 2013 im Vergleichszeitraum 2013/2014 die gestarteten Initiativen untermauert, wichtige Zukäufe getätigt und einzelne Bausteine zu zusammenhängenden Angeboten geformt worden sind.

Nur wenige Unternehmen, darunter Fusion-io, IBM und Oracle, haben neue Produkte auf den Markt gebracht. Zu den neuen Technologien gehören beispielsweise Lösungen auf der Basis von NAND-Flash-Speichern für extrem niedrige Latenzzeiten bei den Speicherzugriffen.

Plattform oder Integration zielführend

Netapp gehört zu den führenden Storage-Anbietern weltweit und bietet ein umfassendes Portfolio an Speicherlösungen auch für große Datenmengen an. Die Zuverlässigkeit und die gute Reputation im Markt sowie die Vielseitigkeit der Speicherlösungen der Rechenzentrumsklasse unterstützen die Platzierung von Netapp im Leader-Quadranten.

Cisco offeriert Speicherprodukte von EMC, HDS und Netapp und ergänzt diese mit Infrastrukturkomponenten und Integrationsdienstleistungen zu einem eigenständigen Offering mit für Big Data geeigneten Storage-Lösungen.

Oracle hat sich im Vergleichszeitraum besonders deutlich weiterentwickelt. Die 2013 angekündigten Big-Data-Produkte sind nun auch in Deutschland deutlich und eigenständig positioniert und aktualisiert worden. Unter den Speichersystemen ist die Oracle Exalytics In-Memory Machine X3-4 ein System, das „Big Data“ in hoher Geschwindigkeit verarbeiten kann.

HDS (Hitachi Data Storage) ist einer der wichtigsten autonomen Anbieter von Storage-Technologien. Die Lösungen von HDS sind Bestandteil von OEM-Lösungen anderer Anbieter. Damit sind für HDS die exzellenten Partnerschaften und bei den OEM-Partnern die Speichertechnologien von HDS als Lösungsbestandteile in die Bewertung eingeflossen. Mit seiner Plattform könnte HDS auch seine Aktivitäten stärker auf Deutschland fokussieren, um den Markt auch bis in den Mittelstand mit ausgereiften Technologien direkt zu bedienen.

Wer sortiert Daten am Schnellsten

Hewlett-Packard hat nach eigenen Angaben als erster Anbieter eine Performance von 5.128 Sekunden für eine Datenmenge von 10 Terabytes, entsprechend einer Leistung von 1,99 Gigabytes pro Sekunde, nach dem für die Hadoop-Leistung entwickelten Terasort-Benchmark erreicht (siehe dazu auch die Erläuterung am Ende dieses Beitrags). Nur wenige Anbieter haben eine Terasort-Messung im Rahmen ihrer Marketing-Kampagnen veröffentlicht.

Fujitsu wurde hinsichtlich der beiden Lösungen Externus DX für Business Warehouses und Eternus JX für Hadoop-Konfigurationen bewertet. Mit diesen beiden Systemen ist Fujitsu sehr gut aufgestellt, muss diese Produkte aber deutlicher für Big-Data-Aufgaben positionieren.

Erstmals ist Huawei im Big Data Vendor Benchmark bewertet worden. Die Huawei OceanStor-Produktfamilie ist ein aus Cloud-Storage-Systemen heraus definiertes Big Data Storage Offering. Technologien, die vom Grundgedanken her für den heutigen Bedarf ausreichen, müssen allerdings ihre Eignung für komplexere Big-Data-Szenarien noch beweisen.

Huawei gibt Gas

Der starke internationale Marktantritt Huaweis im Bereich des Enterprise Computings muss in Deutschland noch auf die Straße gebracht werden. In jedem Fall ist Huawei ein beachtenswerter neuer Player im Markt. RainStor tritt mit sehr schnellen, skalierbaren Speichersystemen an und kann international interessante Referenzen vorweisen. Der Auftritt in Deutschland muss deutlich verstärkt werden.

Fusion-io hat die Entwicklung von Flash-Speichertechnologien für den Rechenzentrumseinsatz wesentlich mitgestaltet. Für das Engagement um diese insgesamt noch recht neue Speichertechnologie erhält Fusion-io die Auszeichnung als „Rising Star“.

Differenzierung stärkt die Marktposition

Allerdings haben sich die Unternehmen auch untereinander angenähert. Hier könnte sich durch eine stärkere Branchenfokussierung und ein stärkeres regionales Engagement künftig wieder eine stärkere Differenzierung ergeben.

Deshalb können sich einige – in der reinen Personalstärke mitunter kleinere Unternehmen – in dieser Kategorie durchaus mit den internationalen Riesen vergleichen, was den Auftritt auf dem deutschen Markt betrifft. International könnte dieses Bild anders aussehen. Für Kunden gibt es also auch aus dem Big-Data-Blickwinkel einige interessante Anbieter.

Erläuterung zu den Angaben bezüglich Hewlett-Packard:

Hardware-Konfiguration: 18 HP ProLiant DL380 Gen8 Server; Dual 6 Core Intel E5-2667 2.9GHz Prozessoren; 64 GB Memory; 16 x 1 TB SAS 7.2K Disks per Node; 4 x 1GB Ethernet. Software-Konfiguration: Red Hat Enterprise Linux 6.2; Java Platform, Standard Edition, JDK 6 Update 29-b11. (Angaben: Hewlett-Packard)

(ID:43281465)