Große Datenmengen zu kleinem Preis Solix nutzt Hadoop zum Archivieren

Anbieter zum Thema

Bis zu 80 Prozent der Informationen in Datenbanken, die von Kernanwendungen benutzt werden, sind inaktiv. Auch deshalb wird die Archivierung als Teil des Information Life Cycle Managements (ILM) immer wichtiger. Solix bietet dafür eine kostengünstige Lösung an.

Hadoop bedient die drei Kriterien, die besonders bei Big Data kritisch sind: Datenvolumen, Vielfalt und schnelle Verfügbarkeit.
Hadoop bedient die drei Kriterien, die besonders bei Big Data kritisch sind: Datenvolumen, Vielfalt und schnelle Verfügbarkeit.
(Bild: Diya Soubra/Solix)

Die Situation in den Unternehmen ist bekannt: Die Datenberge schießen in den Himmel, die Speicherkosten steigen und die Performance der produktiven Systeme sinkt. Immer sind Unternehmensregeln und Steuergesetze einzuhalten, zeitgleich müssen Risiken minimiert werden. Dazu stoßen Forderungen aus anderen Unternehmensteilen nach Datenauswertung – Stichwort Enterprise-Analytics- und Datawarehouse-Anwendungen.

Mit der Verfügbarkeit von kostengünstigen Storage-Lösungen und leistungsstarken Analysewerkzeugen auf Basis von Apache Hadoop gilt es jetzt, die Unternehmensdaten so auszuwerten, dass sie Nutzen für das Geschäft bringen.

Archivieren bedeutet nicht Daten stilllegen

Solix Technologies ist mit dem Produkt „EDMS Database Archiving“ angetreten, die weniger oft nachgefragten Daten der produktiven Datenbank zu verlagern und so die Leistung der Anwendung zu optimieren. Der Endanwender kann aber weiterhin uneingeschränkt auf diese Daten zugreifen.

Für die Company aus dem kalifornischen Santa Clara bedeutet Archivierung, dass die Daten migriert, geschützt und indiziert werden. Die Archivierungslösung ist Teil der ILM-Strategie des Unternehmens. Sie sorgt auch dafür, dass die Daten-Governance eingehalten wird, da die Speicherung gemäß den festgelegten Regeln erfolgt.

Die Archivdaten werden dazu klassifiziert. Die Anwender können auch nach der Migration wie gewohnt auf diese zugreifen. Die Lösung taugt für strukturierte und unstrukturierte Daten. Zudem lassen sich auch ganze Anwendungen verlagern.

Hadoop wegen der drei V

Die Frage, warum man die Lösung auf Basis von Hadoop umgesetzt hat, beantwortet Mark Lee, Senior Vice President, Service: „Hadoop bedient alle drei wichtigen Datenkriterien: Data Velocity, Volume und Variety.“ Gerade im Umfeld von Big Data seien alle drei Bereiche starkem Wachstum ausgesetzt.

„Und mit Hadoop lassen sich hochskalierbare Lösungen zu geringen Kosten erstellen, ohne auf Leistung verzichten zu müssen“, erklärt der Manager. Dank des Map Reduce-Programmiermodells lassen sich auch große Datensätze parallel über mehrere Knoten verteilen.

Artikelfiles und Artikellinks

(ID:43692282)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung