Definition

Was ist ein Data Warehouse?

| Autor / Redakteur: Tutanch / Nico Litzel

(© aga7ta - Fotolia)

Das Data Warehouse stellt ein zentrales Datenbanksystem dar, das zu Analysezwecken im Unternehmen einsetzbar ist. Das System extrahiert, sammelt und sichert relevante Daten aus verschiedenen heterogenen Datenquellen und versorgt nachgelagerte Systeme.

Der Begriff Data Warehouse beschreibt eine Plattform, die Daten aus verschiedenen Datenquellen sammelt, verdichtet, sie langfristig sichert und nachgelagerte Analysesysteme versorgt. Oft wird das Data Warehouse auch als Datenlager bezeichnet. Vorteil des Datenlagers ist, dass eine globale Sicht auf Daten aus unterschiedlichen Datenbeständen entsteht. Gleichzeitig vereinfacht sich der Zugriff auf die Daten für Anwender, da sie in einer zentralen Datenbank konsistent und strukturiert bereitgestellt sind.

Den nachgelagerten Anwendungen bietet das Data Warehouse spezifisch erstellte Auszüge, die sogenannten Data Marts. Die bereitgestellten Daten lassen sich nach bestimmten Mustern analysieren und beispielsweise zur Ermittlung von betrieblichen Kennzahlen einsetzen. Oft stellt das Datenlager die Ausgangsbasis für das Data Mining dar. Die Gesamtheit aller Prozesse zur Datenbeschaffung, Verwaltung, Sicherung und Bereitstellung der Daten nennt sich Data Warehousing.

Das Data Warehousing ist in vier Teilprozesse aufteilbar:

  • Datenbeschaffung: Beschaffung und Extraktion der Daten aus verschiedenen Datenbeständen
  • Datenhaltung: Speicherung der Daten im Datenlager inklusive Langzeitarchivierung
  • Datenversorgung: Versorgung der nachgelagerten Systeme mit den benötigten Daten, Bereitstellung von Data Marts
  • Datenauswertung: Analysen und Auswertungen der Datenbestände

Architektur und Prozesse des Data Warehouse

Die Prozesse des Data Warehouse lassen sich in einem Architekturschaubild vier verschiedenen Bereichen zuordnen. Diese vier Bereiche sind:

  • die Quellsysteme,
  • die Data Staging Area,
  • die Data Presentation Area sowie
  • die Data Access Tools.

Die Daten für das Datenlager werden von verschiedenen Quellsystemen bereitgestellt. Die Staging Area des Data Warehouse extrahiert, strukturiert, transformiert und lädt die Daten aus den unterschiedlichen Systemen. Über die Staging Area gelangen die Daten in die eigentliche Datenbank des Datenlagers. Diese Datenbank stellt eine parallele Speicherplattform, die Data Presentation Area, zu den eigentlichen Quellsystemen dar und ermöglicht einen separaten Datenzugriff für Anwendungen und nachgelagerte Systeme.

Der Datenzugriff erfolgt über diverse Data Access Tools auf verschiedenen Ebenen, den sogenannten Data Marts. In der Regel basiert das Data Warehouse auf relationalen Datenbanken, die sich mittels SQL-Abfragen (Structured Query Language) auslesen lassen. Bei besonders großen Datenmengen kommen oft OLAP-Datenbanken (Online Analytical Processing) für eine hierarchische Strukturierung der Daten zum Einsatz.

Das Data Warehouse wird meist in regelmäßigen Abständen mit neuen Daten beladen. Mehr und mehr setzen sich Systeme durch, bei der die Datenversorgung des Datenlagers in Echtzeit erfolgt. Das Data Warehouse sorgt für die saubere Trennung von operativen und auswertenden Systemen und ermöglicht Analysen in Echtzeit. Diese sind wiederum dafür nutzbar, operative Systeme zu steuern.

Das Data Warehouse im Unternehmensumfeld

Im Unternehmensumfeld kommt das Data Warehouse in vielen Bereichen zum Einsatz. Es soll als unternehmensweit nutzbares Instrument verschiedene Abteilungen und die Entscheider flexibel unterstützen. Das Datenlager stellt die benötigten Daten für die Anwender zur Analyse von Unternehmensprozessen und -kennzahlen bereit. Für folgenden Aufgaben ist das Datenlager nutzbar:

  • Kosten- und Ressourcenermittlung,
  • Analyse von Geschäfts- und Produktionsprozessen,
  • Bereitstellung von Reports und Statistiken,
  • Ermittlung von Unternehmenskennzahlen,
  • Bereitstellung von Daten für weitergehende Analysen und Data Mining sowie
  • Strukturierung und Harmonisierung von Datenbeständen für eine globale Unternehmenssicht.

Big Data – der Data Lake als Ergänzung zum Data Warehouse

Eine Schwäche des Data Warehouse ist, dass es sich hauptsächlich auf die Beschaffung und Bereitstellung von herkömmlichen, strukturierten Daten vornehmlich aus SQL-Datenbanken konzentriert. Im Big-Data-Umfeld ist es allerdings notwendig, auf eine Vielzahl an Informationen zuzugreifen, die oft nur in unstrukturierter Form zur Verfügung stehen. Zudem sind deutlich größere Datenmengen zu beschaffen und bereitzustellen.

Um diese Herausforderungen zu meistern, ist das ergänzende Konzept des Data Lakes entstanden. Das Data Warehouse kann mithilfe des Data Lakes zu einer Big-Data-Analyseplattform ausgebaut werden. Der Data Lake bietet hohe Speicherkapazität und ermöglicht es, große Datenmengen abzulegen. Gleichzeitig ist er in der Lage, verschiedenste Datenformate, auch unstrukturierte, zu verarbeiten. Die im Data Lake gespeicherten Daten können bei Bedarf für Analysen herangezogen werden.

Allerdings sind die heterogenen Data-Lake-Informationen in einem Zwischenschritt aufzubereiten, damit Anwender mit den passenden Werkzeugen darauf zugreifen können. Durch geeignete Transformationen entstehen aus den unstrukturierten Rohdaten des Data Lakes strukturierte Datenbestände, die sich mit den Data Access Tools des Data Warehouse darstellen und analysieren lassen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Cloudera erweitert Cloud-Services

Machine-Learning- und Data-Warehouse-Lösungen

Cloudera erweitert Cloud-Services

Cloudera hat drei neue Lösungen und Cloud-Services vorgestellt, die auf Microsoft Azure betrieben werden. Unternehmen sollen so große Datenbestände in der Cloud einfacher und kostengünstiger nutzen können. lesen

7 Beispiele für erfolgreiche BI- und Big-Data-Projekte

Kommentar von Stefan Müller, IT-Novum

7 Beispiele für erfolgreiche BI- und Big-Data-Projekte

Angesichts sich immer schneller ändernder Rahmenbedingungen ist die Bedeutung von Datenanalyselösungen rapide gestiegen. Unternehmen müssen in immer kürzerer Zeit immer weitreichendere Entscheidungen treffen. Dazu brauchen sie einen verlässlichen Datenbestand, der einerseits alle Informationen der Organisation enthält und andererseits rasch und unkompliziert ausgewertet werden kann. lesen

Business Intelligence – welches Tool kann was?

BI-Entscheidungshilfe

Business Intelligence – welches Tool kann was?

An Business-Intelligence-Lösungen besteht keine Mangel. Und so hat der potenzielle Nutzer die Qual der Wahl. Einen Überblick über die gängigsten BI-Tools, ihre Funktionalitäten sowie ihre Stärken und Schwächen vermittelt dieser Artikel. lesen

Tibco aktualisiert BI-Flaggschiff Spotfire

Nachbericht Tibco Now 2018

Tibco aktualisiert BI-Flaggschiff Spotfire

Tibco Software, ein Spezialist für Daten- und Prozessintegration sowie von Big Data Analytics, hat auf seiner internationalen Anwenderkonferenz Tibco Now in Las Vegas zahlreiche Neuheiten für seine Flaggschiffprodukte präsentiert. Zudem vertieft der Pionier des Informationsbusses seine Kooperation mit Partnern wie AWS und treibt seine IoT-Angebote voran. lesen

Informatica kündigt zahlreiche Updates an

Hybrid Data Management

Informatica kündigt zahlreiche Updates an

Mittels verschiedener Neuerungen will Informatica die Kundenerfahrung dank intelligentem Hybrid Data Management verbessern. Die Innovationen betreffen Informatica Master Data Management (MDM), Intelligent Cloud Services (IICS) und Data Privacy and Protection. lesen

Cloudera Workload XM gestartet

Intelligenter Cloud-Service

Cloudera Workload XM gestartet

Mit „Workload XM“ hat Cloudera einen intelligenten Workload Experience Management Cloud Service ins Leben gerufen. Der Dienst soll im Vergleich mit anderen Performance-Management-Tools für mehr Transparenz und Kontrolle sorgen. lesen

Big-Data- und Analytics-Markt wächst deutlich

2022 bis zu 260 Milliarden US-Dollar

Big-Data- und Analytics-Markt wächst deutlich

Die Marktforscher von IDC gehen davon aus, dass der globale Markt für Big Data und Business Analytics (BDA) bis zum Jahr 2022 ein Gesamtvolumen von rund 260 Milliarden US-Dollar pro Jahr erreicht. lesen

Oracles autonome Datenbank gibt es nur als Service

Data Warehouse Workloads

Oracles autonome Datenbank gibt es nur als Service

Im Herbst 2017 auf der „OpenWorld“ angekündigt, hat Oracle die „Autonomous Database“ jetzt freigegeben – allerdings nicht für den Do-it-yourself-Betrieb. Die Datenbank-Software, die sich selbst administrieren soll, läuft entweder im Rechenzentrum des Anbieters oder als von Oracle gemanagte Lösung beim Kunden („Oracle at Customer“). Der Service für Data Warehouse Workloads ist laut Oracle der erste in einer ganzen Reihe weiterer „autonomer“ Dienste. lesen

Die fünf größten BI-Irrtümer – und wie es wirklich aussieht

Kommentar von Robert Schmitz, Qlik

Die fünf größten BI-Irrtümer – und wie es wirklich aussieht

Daten: das „Gold des 21. Jahrhunderts“ – wirklich? Kommt darauf, denkt vielleicht mancher CEO oder CIO und stellt sich mit gemischten Gefühlen die Datensilos, die jahrelang eingefahrenen Reporting-Prozesse oder die großen Unterschiede zwischen den Fachabteilungen in seiner Organisation vor. Wo anfangen mit einer echten Datenstrategie, die auch Mehrwert generiert und nicht nur Ressourcen frisst? Wer soll den Data Lake überhaupt noch durchdringen, der in immer kürzeren Intervallen immer größer wird? lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44681573 / Definitionen)