Nutanix will mit der Harvard-Architektur die kommerziellen Rechenzentren erobern, Teil 2 Mit NDFS und SOCS Daten näher an den Verarbeitungsknoten bringen

Autor / Redakteur: Marcus Ehrenwirth / Rainer Graefen

Wie die Skalierung der Virtual Computing Platform funktioniert und warum handelsübliche Hardware völlig ausreicht

Anbieter zum Thema

(Foto: Nutanix)

Bislang sind Rechenzentren von spezialisierter Hardware abhängig, die sie oftmals nur für jeweils eine bestimmte Aufgabe nutzen. Dabei kann es sich zum Beispiel um Hochleistungs-Loadbalancer oder Storage-Arrays auf Hardwarebasis handeln.

Die Laufzeitlogik dieser Anwendungen ist in der Regel in der Plattform, etwa mittels FPGAs oder ASICs, eingebettet, so dass neue Softwarefunktionen oftmals nur mit Mühe unterstützt werden können. Skalierung, Management und Support werden durch diesen applikationsspezifischen Ansatz teuer und aufwendig.

Softwarecluster statt spezieller Hardware

Demgegenüber verfolgt Nutanix einen Hardware-agnostischen Ansatz, indem auch die Storage-Ressourcen mit dem Hypervisor über gängige Schnittstellen wie NFS in Kontakt gebracht werden. Möglich wird dies über die verteilte Softwarearchitektur der Virtual Computing Platform, die alle vorhandenen Rechen- und Speicherressourcen in einem Pool zusammenfasst und von der darunter liegenden Hardware abstrahiert.

Nutanix Distributed File System (NDFS) heißt diese verteilte Architektur, ein Cluster beliebig vieler Knoten, der linear skaliert. Jeder dieser Nutanix-Knoten betreibt einen Industriestandard-Hypervisor und enthält Prozessoren, Arbeitsspeicher und lokalen Speicher einschließlich Solid-State Drives (SSD) und Festplattenlaufwerken. Auf jedem Knoten laufen virtuelle Maschinen, genau wie auf einem normalen VM-Host.

Daten automatisch dorthin bringen, wo sie gebraucht werden

Die lokalen Speicherressourcen werden alle in Form eines einheitlichen Pools, dem Nutanix Scale-out Converged Storage (SOCS) virtualisiert. SOCS verhält sich wie ein intelligentes SAN, das die lokalen SSDs und Festplatten aller Knoten dazu nutzt, VM-Daten zu speichern.

Die virtuellen Maschinen, die auf dem Cluster laufen, schreiben die Daten auf SOCS, als ob sie sie gegen ein SAN schreiben würden. SOCS kennt die verschiedenen virtuellen Maschinen, weiß also, welche Daten von welcher VM angefragt oder in den Speicher verlagert werden, und bietet innovative Funktionalitäten für das Datenmanagement.

So bringt SOCS die benötigten Daten näher an die virtuellen Maschinen heran, indem sie lokal vorgehalten werden. Und je häufiger die Daten angefragt werden, desto länger befinden sie sich in den SSDs, während die seltener benötigten auf Festplatten verschoben werden. All dies erfolgt automatisch.

Controller und Metadaten: Grenzen aufheben

Während herkömmliche SAN-Lösungen 1, 2, 4 oder 8 Controller aufweisen, hat das NDFS N Controller. Denn auf jedem Knoten läuft eine spezielle virtuelle Maschine, die Controller-VM, die als virtueller Controller für SOCS dient. Sämtliche Controller-VMs kommunizieren miteinander und formieren sich zu einem einzigen verteilten System.

Ebenso ist das Metadatensystem des NDFS verteilt. Da die Metadaten auf den Controllern gespeichert sind, deren Zahl aber in traditionellen SAN-Infrastrukturen begrenzt ist, sind dort auch die Skalierungsmöglichkeiten begrenzt. Denn wächst die Zahl der virtuellen Maschinen, nimmt die I/O-Last auf jedem einzelnen Controller entsprechend zu.

Der Metadatendienst von Nutanix hingegen verteilt die Metadaten im gesamten Cluster und repliziert sie auf verschiedenen Knoten. Dadurch ist nicht nur die Skalierbarkeit, sondern auch die Ausfallsicherheit gewährleistet. Traditionelle Lösungen hingegen hängen von wenigen Controllern ab, so dass schon der Ausfall einiger weniger Systeme zu Datenverlusten führen kann.

Standard-Hardware reicht aus

Erst dieser durchgängig verteilte Ansatz macht die Verwendung von Standardkomponenten bei der Hardware möglich. Dadurch dass sämtliche Daten und Metadaten aus Sicherheitsgründen mehrfach im Cluster vorgehalten werden und die jeweils benötigten Daten sich immer ganz in der Nähe der zugehörigen virtuellen Maschine befinden, zieht der Einsatz von Standardhardware keine Einbußen hinsichtlich Geschwindigkeit oder Datensicherheit nach sich.

Im Gegenteil: Da die Begrenzungen der bisherigen Infrastrukturen durch die Nutanix-Software beseitigt sind, werden Skalierbarkeit, Hochverfügbarkeit und -geschwindigkeit erst Realität. Und das zu weit geringeren Kosten.

In Teil 3 lesen Sie, wie private oder hybride Cloud-Infrastrukturen das Versprechen von größerer Flexibilität und niedrigeren Kosten wahr werden lassen, und das ohne Abstriche beim Datenschutz.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:42262823)