Das Nutanix Distributed File System eignet sich auch für Big Data, Teil 2 Mit Scale-out Converged Storage will Nutanix das SAN ersetzen
Eine Controller VM verbindet in Nutanix´-Architektur alle Knoten. Ein verteiltes Dateisystem sorgt dafür, dass der Gesamtkomplex nicht aus dem Tritt gerät und stets die bestmögliche Performance liefert.
Anbieter zum Thema

Zentraler Bestandteil von Nutanix ist das auf hohe Verfügbarkeit und Konsistenz optimierte „SOCS“ (Scaleout Converged Storage), es bündelt den Speicher aller Knoten eines Clusters zu einer Einheit. SOCS verhält sich gegenüber den Virtuellen Maschinen wie ein leistungsstarkes SAN, ohne dessen Kosten zu verursachen.
Die Server können ihre Daten über den globalen Scale-out Speicherpool somit wie in ein ganz normales Speichernetzwerk schreiben, allerdings aufgrund der großen räumlichen Nähe mit verkürzten Zugriffszeiten. SOCS ist selbst Teil der Virtualisierung, es liegt zusammen mit den virtuellen Maschinen im selben Cluster.
Über den VMs liegt das verteilte Dateisystem
SOCS analysiert den beständigen I/O-Strom der Virtuellen Maschinen und optimiert den Datenfluss. SOCS skaliert linear und kommt mit einer großen Anzahl von Knoten zurecht. In jedem Knoten läuft eine spezielle Virtuelle Maschine, die als "Controller VM" bezeichnet wird. Alle Controller und VMs zusammen formen das verteilte Nutanix-Dateisystem.
Das „Nutanix Distributed File System“.überprüft die angeschlossenen Laufwerke (Data Scrubbing) und ermöglicht Clones und Snapshots zu jedem Zeitpunkt. Es bietet zudem Kompression der Daten an, und zwar wahlweise als Inline oder als Post-Prozessing-Lösung.
Letzteres hat den Vorteil, dass dabei Nutanix Mapreduce verwendet wird und sich somit alle Knoten im Cluster die Arbeit teilen. Die Snapshots sind innerhalb ihres Clusters vorhanden, können aber in andere Cluster repliziert werden. Quotas existieren nicht.
Das Filesystem besitzt viele Schutzfunktionen
Raid- und Parity-spezifische Probleme kennt das „Nutanix Distributed File System“ als verteiltes Filesystem naturgemäß nicht. Ebenso erübrigen sich teure NVRAM-Speicher oder Schattenkopien. Das Dateisystem löst diese Anforderungen durch mehrfache Redundanz. Das gilt auch für Backups, die durch Snapshots realisiert sind. Eine Wiederherstellung zerstörter Datensätze soll innerhalb von 30 Minuten erfolgt sein.
Gestrandeter oder nicht zugeordneter Speicherplatz wird durch eigene Tools wieder nutzbar gemacht. Dynamische Tabellen verzeichnen zu jedem Zeitpunkt den Standort der einzelnen Datensätze. Externe Storage-Pools lassen sich einbinden. NFS, iSCSI und Software-FCoE werden unterstützt. Nutanix erhebt den Anspruch, damit den Anforderungen der Enterprise-Klasse zu genügen. Bootfähig oder revisionssicher ist das Filesystem allerdings nicht.
Wenn in einer klassischen Speicherarchitektur ein LUN (Logical Unit Number) von mehreren virtuellen Maschinen angesprochen wird, führt dies ab einer gewissen Anzahl zu deutlichen Performance-Verlusten. Vor allem bei Backups und Snapshots.
"Da die Daten in unserem System immer vor Ort auf dem Server -auch Knoten genannt - liegen, vermeiden wir längere Wege zum Speichersystem. Zusätzlich können wir so vermeiden, dass virtuelle Maschinen, die auf einen anderen Knoten liegen, I/O- Ansprüche geltend machen auf eine andere physikalische Hardware", Sagt Raayman.
Dual-Tiering und Replikate
Das Ganze hilft dabei, das sogenannte „noisy neighbor“ Problem zu vermeiden“, erläutert Raayman weiter. Nutanix kennt zwei Tiering Stufen, und zwar „heiß“ und „kalt“. Sie stehen für häufig benutzte Daten und solche, auf die eher selten zugegriffen wird. Der gesamte Datenbestand wird dementsprechend mit Hilfe von „HOT“ (Heat Optimized Tiering) nach den Vorgaben des Anwenders oder anhand der Zugriffszahlen aufgeteilt.
(ID:42619730)