Suchen

Kommentar von Martin Zlaty, Datavard Big Data rückt Datenmanagement wieder in den Fokus

| Autor / Redakteur: Martin Zlaty / Nico Litzel

Die aktuellen Trends Big Data und ln-memory Computing rücken die Bedeutung des Data Warehouses wieder in den Vordergrund. Im Hinblick auf beständig wachsende Datenmengen ist ein intelligentes Datenmanagement mehr denn je essenziell. Neue Technologien wie Nearline Storage eröffnen hierbei neue Möglichkeiten.

Firma zum Thema

Die Prognose für die nächsten Jahre zeigt einen steigenden Bedarf an regelmäßiger Datenbereinigung durch wachsende Datenmengen (Werte in GByte).
Die Prognose für die nächsten Jahre zeigt einen steigenden Bedarf an regelmäßiger Datenbereinigung durch wachsende Datenmengen (Werte in GByte).
(Bild: Datavard)

Der Begriff Big Data ist in aller Munde, ist aber auf das Business Warehouse vieler Unternehmen so nicht anwendbar. Ein Business Warehouse verdient streng genommen erst bei einer Systemgröße von über 50 Terabyte das Prädikat Big Data.

Entscheidend ist jedoch nicht die absolute Größe, sondern das relative Datenwachstum. „Wenn ein System in einem Jahr mehr als 30 Prozent wächst, dann ist das groß und das Management dieses Systems sollte überdacht werden, damit Kosten und Performance nicht aus dem Ruder laufen“, erläutert Gregor Stöckler, Geschäftsführer des Software- und Beratungsunternehmen Datavard.

Herausforderung Datenwachstum

Doch was sind die Ursachen für das enorme Datenwachstum? Die Gründe für immer größer werdende Data Warehouses sind vielfältig. Einerseits steigt das zugrunde liegende operative Datenvolumen durch vermehrte Geschäftstransaktionen und durch den Aufbau neuer nationaler und internationaler Standorte.

Zusätzlich steigen die Anforderungen der Benutzer nach mehr Daten mit immer detaillierterer Granularität. Und auch der Nutzungsumfang durch neue Anwendungsfälle und Applikationen wächst. Hinzukommt, die Sicherstellung der Hochverfügbarkeit der Daten, die viel Speicherkapazität verschlingt. Bedingt durch Spiegelung, Hochverfügbarkeit, Umsysteme und Backups benötigen beispielsweise ein Terabyte strukturierte Daten zehn bis zwanzigmal so viel Speicherplatz.

Andererseits spielen auch rechtliche Gründe und Regularien wie beispielsweise der Sarbanes-Oxley Acts für börsennotierte Unternehmen oder die Data Retention Directive der Europäischen Union eine signifikante Rolle. Diese machen ein cleveres Datenmanagement nötig, das granulare Daten für eine lange Historie speichert, auf deren Basis schnell neue Applikationen zur Berücksichtigung neuer Geschäftsanforderungen bereitgestellt werden können.

„Das beschleunigte Datenwachstum ist eine Herausforderung für die Verwaltung des Systems, die verfügbaren Zeitfenster für Ladeprozesse und die performanten Auswertungen. Datenwachstum ist darüber hinaus der Hauptgrund für Leistungsverlust und steigende Betriebskosten“, beschreibt Michael Hahne, Geschäftsführender Gesellschafter von Hahne Consulting die Problematik.

(ID:42992690)