Datenverfügbarkeit bei Big Data

Big Data Protection statt Big Data Loss

| Autor / Redakteur: Oliver Schonschek / Nico Litzel

Zu den Hauptfragen, die sich Unternehmen bei Big Data stellen, gehört die Frage nach Backup und Recovery in aller Regel dazu.
Zu den Hauptfragen, die sich Unternehmen bei Big Data stellen, gehört die Frage nach Backup und Recovery in aller Regel dazu. (Bild: Asigra)

Neben der Verschlüsselung und der Integritätskontrolle ist es die Gewährleistung der Verfügbarkeit, die die Datensicherheit bei Big Data ausmacht. Spezielle Backup-Lösungen helfen dabei, große Datenverluste zu vermeiden.

Nicht nur die Datenberge in Unternehmen wachsen beständig, auch die Datenverluste werden immer größer. So ist die Datenverlustrate seit 2012 um 400 Prozent gestiegen. In nur einem Jahr haben Unternehmen in Deutschland durch Datenverluste ganze 33,6 Milliarden Euro verloren, so der EMC Data Protection Index. Rund Dreiviertel der befragten Unternehmen können nicht zuverlässig sagen, ob sie Daten nach einem Ausfall wiederherstellen könnten.

Die Probleme mit Backup und Recovery werden durch Big Data nicht kleiner, im Gegenteil: 43 Prozent der befragten Unternehmen in Deutschland haben noch keinen Disaster-Recovery-Plan für Big Data. 53 Prozent halten den Datenschutz und die Datensicherung bei Big Data für schwierig. Bei der Bedeutung, die Big Data für viele geschäftliche Bereiche erlangt, muss die Lücke bei der Verfügbarkeit von Big Data dringend geschlossen werden, sonst drohen noch massivere Datenverluste als bisher.

Der Mittelstand hat besonders Probleme bei Backups

Wie eine Umfrage von NetApp ergab, ist sich nur ein Drittel der mittelständischen Unternehmen sicher, dass sie ihre Daten wiederherstellen können. Zwei Drittel führen keine Tests im Bereich Recovery durch, bei zehn Prozent fehlen sogar grundlegende Backup-Prozesse. Gleichzeitig sehen 95 Prozent eine starke Abhängigkeit von der Verfügbarkeit ihrer Daten, 51 Prozent fürchten einen Stillstand ihrer Systeme bei Datenverlust. 47 Prozent der befragten Mittelständler machen (lediglich) täglich eine Vollsicherung. Durch die Entwicklung hin zu immer größeren Datenmengen und die hohe Dynamik in der Datenverarbeitung könnte dieses Zeitfenster bald jedoch unzureichend sein.

Big Data stellt hohe Anforderungen an Backup und Recovery

Welche Herausforderungen bei Backup und Recovery von Big Data bestehen, ergibt sich aus den Besonderheiten von Big-Data-Verfahren: Bei Big Data werden große Mengen unterschiedlicher Datenarten verarbeitet, wobei die Ergebnisse sehr schnell vorliegen sollen (Echtzeit-Anwendungen). Für eine Backup- und Recovery-Lösung bedeutet dies, dass sie sich durch hohe Flexibilität, hohe Speicherkapazität, hohe Skalierbarkeit und eine sehr schnelle Reaktionszeit auszeichnen muss. Die Frequenz der Datensicherungen muss deutlich höher liegen können als bei herkömmlichen Backup-Szenarien.

Deshalb muss zum Beispiel der RTO-Wert (Recovery Time Objective), also die Zeitspanne vom Schaden bis zur völligen Wiederherstellung, deutlich besser sein als bei einer herkömmlichen Recovery-Lösung. Andernfalls sind die negativen Auswirkungen bei den Echtzeit-Anwendungen zu hoch. Der RPO-Wert (Recovery Point Objective), also die Zeitspanne zwischen der letzten Datensicherung und dem Systemausfall, muss bei Big Data sehr klein sein, um die möglichen, großen Datenverluste vermeiden zu können.

Backup-Lösungsanbieter haben auf Big Data reagiert

Ein Blick auf den Markt für Backup- und Recovery-Lösungen zeigt, dass es bereits eine Reihe von Angeboten speziell für die Sicherung und Wiederherstellung großer Datenmengen gibt. HP StoreOnce Backup zum Beispiel bietet eine schnelle Sicherung und Wiederherstellung, eine flexible Erweiterbarkeit, eine zentrale Administration auch für verteilte Daten sowie eine spezielle Ausfallsicherheit. Die Symantec NetBackup Platform nimmt sich ebenfalls der Besonderheiten von Big Data an, ist also laut Anbieter schnell, skalierbar und flexibel einsetzbar.

Die Lösung von Sepaton (mittlerweile von Hitachi Data Systems übernommen) hat ebenso Big-Data-Umgebungen im Fokus und berücksichtigt das stetige Datenwachstum bei gleichzeitig immer kürzeren Backup-Zyklen. Laut Anbieter liegt die Backup-Performance bei bis zu 80 Terabyte pro Stunde. Die Wiederherstellung des letzten Backups soll in Minutenschnelle erfolgen.

Commvault Simpana

Simpana OnePass bietet Funktionen für Archivierung, Backup und Berichterstattung, eine zentrale Administration, verkürzt die Backup-Zeiten und unterstützt bei der Erfüllung von Compliance-Vorgaben. Der Simpana ContentStore bildet eine zentrale Stelle für die Sicherung und fristgerechte Löschung der Daten.

Die EMC-Isilon-Archivierungslösung für Big Data ist Teil des EMC-Isilon-Scale-out-Speichers und skaliert auf bis zu 20 Petabyte für Datensicherungen auf Vier-Terabyte-Laufwerken. Neben der Skalierbarkeit ist es das einfache Speichermanagement und die Unterstützung von Compliance-Vorgaben, die diese Lösung zur Big-Data-Lösung machen. Für die Funktionen im Bereich Backup und Disaster Recovery steht die EMC Isilon SnapshotIQ- und SyncIQ-Software zur Verfügung.

Ein weiteres Beispiel ist die Cloudian Object Storage Software for Enterprise Backup. Die Lösung verspricht schnelle Backups, eine hohe Skalierbarkeit in den Bereich von mehreren Hundert Petabyte und eine automatische Behandlung von Hardware- und Netzwerkfehlern.

Fazit

Backup und Recovery für Big-Data-Umgebungen sind anspruchsvoll, aber durchaus technisch realisierbar. Der große Datenverlust kann nicht nur vermieden werden, er muss es auch.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43501933 / Recht & Sicherheit)