Definition Was ist ein Distributed File System?

Autor / Redakteur: Michael Radtke / Nico Litzel

Ein Distributed File System (DFS; auf Deutsch: verteiltes Dateisystem) ist ein wesentlicher Bestandteil eines Betriebssystems und ermöglicht über ein Rechnernetz den Zugriff auf in den Fileservern abgelegte Dateien.

Anbieter zum Thema

(© aga7ta - Fotolia)

Grundsätzlich zählt das verteilte Dateisystem zu den File-Service-Protokollen. Der jeweilige Administrator erhält dabei die Möglichkeit, ein netzwerkübergreifendes Dateisystem aufzubauen. Dieses enthält oftmals die verschiedenen Freigaben für die jeweiligen Server. Ein Dateisystem dieser Art ist grundsätzlich hierarchisch strukturiert und verfügt über eine logische, einheitliche Namenskonvention. Selbst wenn ein Benutzer den Standort des Servers nicht kennt, kann er eine Freigabe anfordern. Die Suche nach Dateien wird dabei unternehmensweit durch die zentrale Baumstruktur erleichtert.

Das Distributed File System arbeitet generell mit dem Network File System (NFS), dem Server Message Block (SMB) sowie dem Andrew File System. Eingesetzt werden kann das Distributed File System in Server-Umgebungen, die auf Microsoft Windows (ab Version 2000), NetWare oder Unix basieren. Zum Vergleich: Das klassische Gegenstück zu einem derartigen Dateisystem bildet ein lokales Dateisystem, das direkt an den jeweiligen Computer angeschlossene Massenspeicher verwaltet.

Oft genutzt – das Distributed File System von Microsoft

In der Praxis vorwiegend genutzt wird das Distributed File System von Microsoft, mittels dem dann eben im Rechnernetz verteilte Verzeichnisse zu ganzheitlichen Verzeichnisstrukturen zusammen gestellt werden können. Dabei erscheinen die Verzeichnisse den Benutzern zwar als in sich geschlossene Struktur, dennoch können sie sich aber auf unterschiedlichen Datenspeichern befinden. Allerdings stammt das grundlegende Konzept des Distributed File System nicht von Microsoft selbst; diesbezüglich gibt es dann auch von verschiedenen Herstellern unterschiedliche Implementierungen.

Mehrere Komponenten

Die entsprechende Topologie (hier: Netzstruktur eines Rechnernetzes) des Distributed File System setzt sich aus einem als DFS-Stamm fungierendem Verzeichnis und Verknüpfungen auf die jeweiligen Zielverzeichnisse zusammen. Falls Bedarf besteht, können zudem Replikate zu den einzelnen Zielverzeichnissen angelegt werden. Mit diesen können die enthaltenen Dateien dann automatisch abgeglichen werden. Allerdings ist es in einem solchen Fall dann nicht möglich, gezielt zu steuern, ob Anwender auf ein etwaig noch gar nicht aktuelles Replikat oder auf das eigentliche Zielverzeichnis zugreifen.

Zwei verschiedene Varianten

Es können prinzipiell zwei Varianten bzw. Versionen eines DFS-Stammes angelegt werden. Zum einen handelt es sich dabei um einen eigenständigen DFS-Stamm. Dieser verfügt im Endeffekt aber lediglich über eine einzige DFS-Verknüpfungsebene und auf Stammebene über keine frei gegebenen DFS-Ordner. Handelt es sich dagegen um einen Domänenbasierenden DFS-Stamm, hat ein Anwender zu jeder Zeit Zugriff auf frei gegebene Distributed-File-System-Ordner. Zudem verfügt ein domänenbasierender DFS-Stamm oftmals über gleich mehrere Ebenen von DFS-Verknüpfungen. Außerdem wird ein DFS-Stamm dieser Art automatisch im Active Directory veröffentlicht werden und des Weiteren auf einem Mitgliedsserver der jeweiligen Domäne installiert bzw. eingerichtet sein.

Zahlreiche Implementierungen

Neben dem Distributed File System von Microsoft können Anwender zudem noch auf eine große Bandbreite anderweitiger Implementierungen zurückgreifen. In diesem Zusammenhang ist vor allem Coda eine wichtige Begrifflichkeit. So handelt es sich bei Coda um ein Dateisystem, das in einem Netzwerk verteilt ist, und explizit für stationäre und auch mobile Rechner konzeptioniert wurde. Coda ist dabei bereits im Jahr 1987 bei einem Forschungsprojekt an der Carnegie Mellon University in Pittsburgh (USA) entstanden. Mit diesem Dateisystem können in der Regel mehrere Rechner gleichzeitig arbeiten, wobei die Inhalte – zwecks Erhöhung der Systemverfügbarkeit – auf mehrere Server zu verteilen sind.

Lustre und ClusterFS

Wer Cluster Computing betreibt, sollte sich demgegenüber mit Lustre befassen. Das ist ein paralleles, verteiltes Dateisystem, das eine offene Lizenzierung sowie eine explizit hohe Leistungsfähigkeit aufweist. Daher wird das Dateisystem Lustre auch oftmals in so bezeichneten Supercomputern eingesetzt. Des Weiteren sind die Implementierungen BeeGFS/FhGFS für HPC-Anwendungen und Cluster von entscheidender Bedeutung. Hierbei handelt es sich um ein paralleles Dateisystem, das im Hinblick auf den Datendurchsatz für den Einsatz im Bereich High Performance Computing ausgelegt. ist.

GPFS von IBM

Geht es um die leistungsstarke und optimale Speicherung von Daten, vertrauen viele Administratoren auch dem von IBM entwickelten General Parallel File System (GPFS). Als eine bekannte Implementierung präsentiert sich letztendlich auch das verteilte Dateisystem GlusterFS, welches - als einheitliches Dateisystem - Speicherelemente von mehreren Servern (hier: Cluster-Nodes) präsentiert. Die verschiedenen Server bilden dabei eine Client-Server-Architektur über TCP/IP.

(ID:44474637)