Noch zählt nicht jede Mikrosekunde bei der Datenverarbeitung Big Data braucht kraftvollere Flash-Speicher

Autor / Redakteur: Walter Schadhauser / Rainer Graefen |

Die meisten Anwender unterscheiden nicht zwischen Nand-Flash und Solid State Disks. Doch die Festplatten-Schnittstellen für SSDs sind schon jetzt überfordert. Neue Flash-Konzepte, die auf Fabric- und Grid-Architekturen aufbauen, stehen in den Startschuhen, um das High-end der Datenanalyse und Anwendungskonsolidierung zu erobern.

Anbieter zum Thema

2016 wird das Jahr von Flash, behauptet nun auch EMC. Wikibon hat nämlich ermittelt, dass 2016 die Vierjahreskosten von Flash die vergleichbaren Kosten pro Terabyte für Festplatte unterschreiten werden.
2016 wird das Jahr von Flash, behauptet nun auch EMC. Wikibon hat nämlich ermittelt, dass 2016 die Vierjahreskosten von Flash die vergleichbaren Kosten pro Terabyte für Festplatte unterschreiten werden.
(EMC Wikibon)

Moderne Speichersysteme sind „blitzschnell“ geworden, wie es der allgemein genutzte Produktname Flash nahelegt. Am Halbleiterspeicher liegt es jedenfalls nicht, wenn die Software-Anwendungen trotzdem so trödelig erscheinen. Eigentlich gibt es keinen Grund, die Performance der Halbleiterspeicher zu verbessern, gäbe es nicht Marktsegmente wie die Genomik, Finanzdienstleistungen, Energieerzeugung oder Big Data.

Altbewährte Architekturen für die Dauerbelastung

Und hier setzen auch die neuesten Entwicklungen der Flash-Speicher an. Sie arbeiten als Fabric-, als Grid- oder als 4-Knoten-Cluster mit Vorhersagequalitäten. HGST preschte auf dem Flash Memory Summit im August 2015 vor und stellte die Persistant Memory Fabric vor.

Zusammen mit Mellanox, einem Switch-Hersteller für High Performane Computing (HPC) auf Basis von Ethernet und Infiniband-Verbindungen, hatte man eine „RDMA-fähige In-Memory Computing Cluster-Architektur“ mit DRAM-ähnlicher Leistung entwickelt. Aufbauend auf Phase Change Memory (PCM) erreicht das Speichersystem drei Millionen I/O-Operationen pro Sekunde (IOPS), Latenzzeiten von weniger als zwei Mikrosekunden sollen erzielbar sein.

Solch ein System würde neue Maßstäbe beim High-end von Speichersystemen setzen. Aber PCM wird zurzeit nur in kleinem Produktionsmaßstab mit unzureichenden Speicherfähigkeiten produziert – und es gibt Alternativen wie das von Samsung vor kurzem favorisierte MRAM mit nahezu DRAM-ähnlichen Geschwindigkeiten.

„Je besser Unternehmen den Wert von Echtzeitanalysen für die Identifikation neuer Marktchancen, für mehr Kundenkontakte und engere Kundenbindung verstehen, desto mehr wird Big Data zum Mainstream werden. Dadurch verändert sich der Performance- und Kapazitätsmaßstab, nach dem IT-Infrastrukturen künftig funktionieren müssen“, erläutert Eric Burgener, Research Director, Storage Practice bei IDC die neueste Entwicklung im Storage-Markt.

Besser als beim D5 kann Flash nicht mehr werden

Es geht aber nicht nur um die Kundenbindung, sondern auch um handfeste neue Offerten. EMC beispielsweise glaubt, mit dem DSSD D5 Speichersystem die Kosten für eine Genomanalyse auf Preise von wenigen zig Euro senken zu können und die Analyse zehnmal schneller als die derzeit besten Gensequenzer durchführen zu können.

Beim kleinsten D5-Modell wirbt man mit zehn Millionen IOPS und Latenzzeiten von maximal 100 Mikrosekunden. Das DSSD D5 kann per PCIe Gen3 und mittels der treiberlosen Protokolltechnik NVMe mit bis zu 48 Servern kommunizieren. EMC musste allerdings auch bei NVMe auf die selbstentwickelte Fabric-Variante aufrüsten, um die Datenströme besser zu leiten.

Die maximale Leistung dieser Fabric gibt EMC mit einer Bruttospeicherkapazität von 144 TByte (netto: 100 TByte), einer maximalen Bandbreite von 100 GByte pro Sekunde und 100 Millionen IOPS bei 100 µs an.

Die technische Konzeption des D5 sucht seinesgleichen. Der Flash-Speicher ist nicht fest im Gehäuse installiert, sondern in 4-TByte-Modulen erweiter- und tauschbar.

Und bislang einzigartig, der Flash-Speicher ist nicht mehr in Blöcken organisiert, sondern jede einzelne Zelle ist adressierbar. Eine Hochverfügbarkeitstechnik namens Cubic Raid sorgt für höchste Flash-Zuverlässigkeit. Und wie nicht anders zu erwarten, sind alle kritischen Komponenten doppelt vorhanden.

Nahtloser Übergang von der Hybrid- zur Flash-Technik

Einen anderen, mehr konventionellen Fabric-Ansatz fährt Nimble Storage. Bei der AF-Familie (All Flash) kommen Samsungs 3D V-Nand 4 TByte PM863 SSDs zum Einsatz. Das High-end-Familienmitglied AF9000 skaliert in einer 4-Node Scale-Out-Konfiguration bis 8,2 PByte. 1,2 Millionen IOPS beim Einsatz von vier Knoten sind sicherlich auch kein schlechter Wert. Nimble liegt aber am unteren Ende der hier vorgestellten Systeme und spezifiziert die Latenzzeit - wie beim Einsatz von SSDs üblich - bei unter einer Millisekunde.

Die Verfügbarkeit ist allerdings mit 99,9997 Prozent auf höchstem Niveau angesiedelt. Wie auch bei den Mitbewerbern sinken die Gesamtbetriebskosten. Nimble gibt einen Wert zwischen 33 und 66 Prozent an.

Lange Zeit hatte Nimble auf hybride Speichersysteme gesetzt. Das bleibt auch weiterhin so, da man mit der CASL-Architektur, die Random Writes in sequentielle Schreibzugriffe umwandelt, viele Kunden begeistern konnte.

Im Tier-0 und wohl auch im Tier-1 ist der Zug für den Einsatz von Festplatten allerdings abgefahren. Jetzt hat man mit der AF-Serie die Portfolio-Lücke geschlossen und kann beide Produktreihen in einer Unified Flash Fabric zusammenarbeiten lassen.

Wie bei den älteren Systemen spielt auch hier Infosight, die Remote-Überwachungstechnik von Nimble, eine sehr große Rolle. Durch die Unmengen an Maschinendaten ist der Hersteller in der Lage, die Non-Stop-Verfügbarkeit sicherzustellen, meist bevor der Anwender Auffälligkeiten überhaupt wahrnimmt.

Durchgängige Management-Oberfläche bei A9000 wie beim XIV

Ganz neu auf dem Markt ist das Flashsystem A9000 von IBM. Da der Hersteller sein Hochleistungssystem bei Cloud- und Service-Providern einsetzen will, hat man auch hier auf höchste Verfügbarkeit von über 99,999 Prozent Wert gelegt.

Die einzelnen Flash-Enclosures sind 8U hoch und integrieren drei Grid Controller und einen Flash-Einschub mit 12 Modulen, die je nach Modell eine effektive Kapazität von 60, 150 oder 300 TByte haben. Die innere Struktur des A9000 ist wie das XIV-Speichersystem als Grid mit bis zu 12 aktiven Controllern konstruiert und benutzt dieselben einfach zu bedienenden Konfigurations- und Überwachungswerkzeuge.

In der Variante A9000R, R für Rack, erreicht das Speichersystem bis zu zwei Millionen IOPS bei unter 205 Mikrosekunden Latenz. Bei der effektiven Speicherkapazität gibt IBM eine maximale Kapazität von drei PByte an. Der Hersteller geht dabei von einer 5,26 : 1-Reduktion der Daten durch Kompression und Deduplizierung aus.

Artikelfiles und Artikellinks

(ID:44061879)