Das Nutanix Distributed File System eignet sich auch für Big Data, Teil 2 Mit Scale-out Converged Storage will Nutanix das SAN ersetzen

Autor / Redakteur: Bernd Schöne / Rainer Graefen

Eine Controller VM verbindet in Nutanix´-Architektur alle Knoten. Ein verteiltes Dateisystem sorgt dafür, dass der Gesamtkomplex nicht aus dem Tritt gerät und stets die bestmögliche Performance liefert.

Anbieter zum Thema

50 Knoten und mehr werden aktuell von Nutanix unterstützt. Jeder Knoten enthält die Appliance, sowie virtuelle Maschinen und Speicher. Die Architektur ist identisch, die Hardware angepasst auf den Bedarf. Insbesondere bei der Wahl zwischen SSDs und HDs bestimmt die erforderliche I/O-Leistung die richtige Mischung zwischen beiden Speicherarten.
50 Knoten und mehr werden aktuell von Nutanix unterstützt. Jeder Knoten enthält die Appliance, sowie virtuelle Maschinen und Speicher. Die Architektur ist identisch, die Hardware angepasst auf den Bedarf. Insbesondere bei der Wahl zwischen SSDs und HDs bestimmt die erforderliche I/O-Leistung die richtige Mischung zwischen beiden Speicherarten.
(Grafik: Nutanix)

Zentraler Bestandteil von Nutanix ist das auf hohe Verfügbarkeit und Konsistenz optimierte „SOCS“ (Scaleout Converged Storage), es bündelt den Speicher aller Knoten eines Clusters zu einer Einheit. SOCS verhält sich gegenüber den Virtuellen Maschinen wie ein leistungsstarkes SAN, ohne dessen Kosten zu verursachen.

Die Server können ihre Daten über den globalen Scale-out Speicherpool somit wie in ein ganz normales Speichernetzwerk schreiben, allerdings aufgrund der großen räumlichen Nähe mit verkürzten Zugriffszeiten. SOCS ist selbst Teil der Virtualisierung, es liegt zusammen mit den virtuellen Maschinen im selben Cluster.

Über den VMs liegt das verteilte Dateisystem

SOCS analysiert den beständigen I/O-Strom der Virtuellen Maschinen und optimiert den Datenfluss. SOCS skaliert linear und kommt mit einer großen Anzahl von Knoten zurecht. In jedem Knoten läuft eine spezielle Virtuelle Maschine, die als "Controller VM" bezeichnet wird. Alle Controller und VMs zusammen formen das verteilte Nutanix-Dateisystem.

Das „Nutanix Distributed File System“.überprüft die angeschlossenen Laufwerke (Data Scrubbing) und ermöglicht Clones und Snapshots zu jedem Zeitpunkt. Es bietet zudem Kompression der Daten an, und zwar wahlweise als Inline oder als Post-Prozessing-Lösung.

Letzteres hat den Vorteil, dass dabei Nutanix Mapreduce verwendet wird und sich somit alle Knoten im Cluster die Arbeit teilen. Die Snapshots sind innerhalb ihres Clusters vorhanden, können aber in andere Cluster repliziert werden. Quotas existieren nicht.

Das Filesystem besitzt viele Schutzfunktionen

Raid- und Parity-spezifische Probleme kennt das „Nutanix Distributed File System“ als verteiltes Filesystem naturgemäß nicht. Ebenso erübrigen sich teure NVRAM-Speicher oder Schattenkopien. Das Dateisystem löst diese Anforderungen durch mehrfache Redundanz. Das gilt auch für Backups, die durch Snapshots realisiert sind. Eine Wiederherstellung zerstörter Datensätze soll innerhalb von 30 Minuten erfolgt sein.

Gestrandeter oder nicht zugeordneter Speicherplatz wird durch eigene Tools wieder nutzbar gemacht. Dynamische Tabellen verzeichnen zu jedem Zeitpunkt den Standort der einzelnen Datensätze. Externe Storage-Pools lassen sich einbinden. NFS, iSCSI und Software-FCoE werden unterstützt. Nutanix erhebt den Anspruch, damit den Anforderungen der Enterprise-Klasse zu genügen. Bootfähig oder revisionssicher ist das Filesystem allerdings nicht.

Wenn in einer klassischen Speicherarchitektur ein LUN (Logical Unit Number) von mehreren virtuellen Maschinen angesprochen wird, führt dies ab einer gewissen Anzahl zu deutlichen Performance-Verlusten. Vor allem bei Backups und Snapshots.

"Da die Daten in unserem System immer vor Ort auf dem Server -auch Knoten genannt - liegen, vermeiden wir längere Wege zum Speichersystem. Zusätzlich können wir so vermeiden, dass virtuelle Maschinen, die auf einen anderen Knoten liegen, I/O- Ansprüche geltend machen auf eine andere physikalische Hardware", Sagt Raayman.

Dual-Tiering und Replikate

Das Ganze hilft dabei, das sogenannte „noisy neighbor“ Problem zu vermeiden“, erläutert Raayman weiter. Nutanix kennt zwei Tiering Stufen, und zwar „heiß“ und „kalt“. Sie stehen für häufig benutzte Daten und solche, auf die eher selten zugegriffen wird. Der gesamte Datenbestand wird dementsprechend mit Hilfe von „HOT“ (Heat Optimized Tiering) nach den Vorgaben des Anwenders oder anhand der Zugriffszahlen aufgeteilt.

„Heiß“ wandert auf schnelle Speichersysteme, „kalt“ auf weniger schnelle. Insbesondere teilt HOT die Datenbestände zwischen den vorhandenen SSDs und HDDs auf. HOT reagiert aktiv auf Veränderungen. Sollte eine Virtuellen Maschine verstärkt auf einen als kalt eingestuften Datensatz zugreifen, wird dieser heiß. Der Nutanix eigene „Curator“ (Distribute Data Maintenance Service) verschiebt die Inhalte dann mit hoher Geschwindigkeit parallel auf das schnellere Tier.

Eine weitere Aufgabe des Verwalters, Curator, ist die Migration von Speicherinhalten zwischen Knoten, wenn sich der Standort von Virtuellen Maschinen ändert. Ebenso verfügt der Dienst über einen „Datenmüllschlucker“ für gelöschte Daten und zusätzlich über eine Konsistenzüberprüfung mit Hilfe von Prüfsummen. Sollten nach dem Ausfall vom Speichermedien beschädigte Datensätze vorliegen, werden diese vom Curator anhand der Replikate ersetzt. Auch die Replikate haben eine Doppelfunktion. Sie erfüllen die Funktion der sonst verwendeten Schattenkopien.

Metadaten

Bei herkömmlichen Speichersystemen führt die schiere Menge der Metadaten bei der Erweiterung des Speichersystems um weitere Komponenten oft zu einem Performance-Verlust, da die Metadaten innerhalb der Controller verwaltet werden. und nur eine kleine Anzahl von Controllern vorhanden ist. Die I/O Last jedes Controllers steigt daher stark an, wenn viele virtuelle Maschinen aktiv sind.

Das Metadaten-Problem geht Nutanix mit dem spezifischen Metadaten-Layer „Medusa“ (Distributed Metadata Layer) an. Medusa umgeht das Performance-Problem durch eine größere Anzahl von Controllern. Es skaliert mit der Anzahl der Knoten im Speichersystem.

Alle Metadaten sind stets auf allen Knoten vorhanden. Auch beim Ausfall mehrerer Controller bleibt das Speichersystem daher leistungsfähig. "Das Resultat ist eine dynamische Anpassung an die Anforderungen von Big Data", so Bas Raayman. .

Leistungsfähigkeit

Da Nutanix erst 2009 in den Speichermarkt einstieg, war der Siegeszug von SSDs bei hohen I/O-Anforderungen bereits abzusehen. Die Nutanix-Architektur wurde daher bereits beim Design auf den hohen I/O-Durchsatz getrimmt, den SSDs zur Verfügung stellen.

Wie bereits beim Tiering erörtert, weist Nutanix automatisch den Virtuellen Maschinen mit besonders hohen I/O-Anforderungen Blöcke auf den schnellen SSDs zu. Umgekehrt werden virtuellen Maschinen mit geringerer I/O-Last mit klassischen, also drehenden Festplatten verknüpft, weil diese immer noch deutlich preiswerter sind. Metadaten von häufig verwendeten Virtuellen Maschinen legt das Dateisystem in einem schnellen Cache ab, um die Leistungsfähigkeit nicht zu schmälern.

DIE GRENZEN

Alles hat seine Grenzen, aber bei Nutanix liegen sie wirklich hoch. Der Adressraum liegt bei 2exp64 (zwei hoch 64) möglichen Adressen – das dürfte für die nächsten Jahrzehnte ausreichen. Denselben Wert hat die maximal mögliche Dateigröße.

(ID:42619730)