Definition

Was ist ein Data Warehouse?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Das Data Warehouse stellt ein zentrales Datenbanksystem dar, das zu Analysezwecken im Unternehmen einsetzbar ist. Das System extrahiert, sammelt und sichert relevante Daten aus verschiedenen heterogenen Datenquellen und versorgt nachgelagerte Systeme.

Der Begriff Data Warehouse beschreibt eine Plattform, die Daten aus verschiedenen Datenquellen sammelt, verdichtet, sie langfristig sichert und nachgelagerte Analysesysteme versorgt. Oft wird das Data Warehouse auch als Datenlager bezeichnet. Vorteil des Datenlagers ist, dass eine globale Sicht auf Daten aus unterschiedlichen Datenbeständen entsteht. Gleichzeitig vereinfacht sich der Zugriff auf die Daten für Anwender, da sie in einer zentralen Datenbank konsistent und strukturiert bereitgestellt sind.

Den nachgelagerten Anwendungen bietet das Data Warehouse spezifisch erstellte Auszüge, die sogenannten Data Marts. Die bereitgestellten Daten lassen sich nach bestimmten Mustern analysieren und beispielsweise zur Ermittlung von betrieblichen Kennzahlen einsetzen. Oft stellt das Datenlager die Ausgangsbasis für das Data Mining dar. Die Gesamtheit aller Prozesse zur Datenbeschaffung, Verwaltung, Sicherung und Bereitstellung der Daten nennt sich Data Warehousing.

Das Data Warehousing ist in vier Teilprozesse aufteilbar:

  • Datenbeschaffung: Beschaffung und Extraktion der Daten aus verschiedenen Datenbeständen
  • Datenhaltung: Speicherung der Daten im Datenlager inklusive Langzeitarchivierung
  • Datenversorgung: Versorgung der nachgelagerten Systeme mit den benötigten Daten, Bereitstellung von Data Marts
  • Datenauswertung: Analysen und Auswertungen der Datenbestände

Architektur und Prozesse des Data Warehouse

Die Prozesse des Data Warehouse lassen sich in einem Architekturschaubild vier verschiedenen Bereichen zuordnen. Diese vier Bereiche sind:

  • die Quellsysteme,
  • die Data Staging Area,
  • die Data Presentation Area sowie
  • die Data Access Tools.

Die Daten für das Datenlager werden von verschiedenen Quellsystemen bereitgestellt. Die Staging Area des Data Warehouse extrahiert, strukturiert, transformiert und lädt die Daten aus den unterschiedlichen Systemen. Über die Staging Area gelangen die Daten in die eigentliche Datenbank des Datenlagers. Diese Datenbank stellt eine parallele Speicherplattform, die Data Presentation Area, zu den eigentlichen Quellsystemen dar und ermöglicht einen separaten Datenzugriff für Anwendungen und nachgelagerte Systeme.

Der Datenzugriff erfolgt über diverse Data Access Tools auf verschiedenen Ebenen, den sogenannten Data Marts. In der Regel basiert das Data Warehouse auf relationalen Datenbanken, die sich mittels SQL-Abfragen (Structured Query Language) auslesen lassen. Bei besonders großen Datenmengen kommen oft OLAP-Datenbanken (Online Analytical Processing) für eine hierarchische Strukturierung der Daten zum Einsatz.

Das Data Warehouse wird meist in regelmäßigen Abständen mit neuen Daten beladen. Mehr und mehr setzen sich Systeme durch, bei der die Datenversorgung des Datenlagers in Echtzeit erfolgt. Das Data Warehouse sorgt für die saubere Trennung von operativen und auswertenden Systemen und ermöglicht Analysen in Echtzeit. Diese sind wiederum dafür nutzbar, operative Systeme zu steuern.

Das Data Warehouse im Unternehmensumfeld

Im Unternehmensumfeld kommt das Data Warehouse in vielen Bereichen zum Einsatz. Es soll als unternehmensweit nutzbares Instrument verschiedene Abteilungen und die Entscheider flexibel unterstützen. Das Datenlager stellt die benötigten Daten für die Anwender zur Analyse von Unternehmensprozessen und -kennzahlen bereit. Für folgenden Aufgaben ist das Datenlager nutzbar:

  • Kosten- und Ressourcenermittlung,
  • Analyse von Geschäfts- und Produktionsprozessen,
  • Bereitstellung von Reports und Statistiken,
  • Ermittlung von Unternehmenskennzahlen,
  • Bereitstellung von Daten für weitergehende Analysen und Data Mining sowie
  • Strukturierung und Harmonisierung von Datenbeständen für eine globale Unternehmenssicht.

Big Data – der Data Lake als Ergänzung zum Data Warehouse

Eine Schwäche des Data Warehouse ist, dass es sich hauptsächlich auf die Beschaffung und Bereitstellung von herkömmlichen, strukturierten Daten vornehmlich aus SQL-Datenbanken konzentriert. Im Big-Data-Umfeld ist es allerdings notwendig, auf eine Vielzahl an Informationen zuzugreifen, die oft nur in unstrukturierter Form zur Verfügung stehen. Zudem sind deutlich größere Datenmengen zu beschaffen und bereitzustellen.

Um diese Herausforderungen zu meistern, ist das ergänzende Konzept des Data Lakes entstanden. Das Data Warehouse kann mithilfe des Data Lakes zu einer Big-Data-Analyseplattform ausgebaut werden. Der Data Lake bietet hohe Speicherkapazität und ermöglicht es, große Datenmengen abzulegen. Gleichzeitig ist er in der Lage, verschiedenste Datenformate, auch unstrukturierte, zu verarbeiten. Die im Data Lake gespeicherten Daten können bei Bedarf für Analysen herangezogen werden.

Allerdings sind die heterogenen Data-Lake-Informationen in einem Zwischenschritt aufzubereiten, damit Anwender mit den passenden Werkzeugen darauf zugreifen können. Durch geeignete Transformationen entstehen aus den unstrukturierten Rohdaten des Data Lakes strukturierte Datenbestände, die sich mit den Data Access Tools des Data Warehouse darstellen und analysieren lassen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Cross Cloud – die Multi-Cloud ohne Grenzen

Kommentar von Benoit Dageville, Snowflake

Cross Cloud – die Multi-Cloud ohne Grenzen

Daten nahtlos zwischen verschiedenen Regionen übertragen und sogar über verschiedene Cloud-Anbieter hinweg austauschen – davon träumen die meisten Unternehmen. Doch Umstände wie die geografische Lage und die Inkompatibilität von Cloud-Plattformen stehen der globalen Verfügbarkeit von Daten bis heute im Weg. Die Folgen sind ersichtlich: Unternehmen, die Daten unternehmensweit und darüber hinaus sicher austauschen möchten, stehen vor einem großen Fragezeichen. lesen

Mit Birst zum automatisierten Data Warehouse

Infor und Snowflake kooperieren

Mit Birst zum automatisierten Data Warehouse

Infor, Spezialist für branchenspezifische Business-Software in der Cloud, ist eine Partnerschaft mit der Cloud-Datenplattform Snowflake eingegangen. Ziel ist der gemeinsame Aufbau automatisierter Data Warehouses. lesen

Azure Synapse Analytics – das SQL Data Warehouse der nächsten Generation

Verknüpfung von Data Warehouses und Big Data Analytics

Azure Synapse Analytics – das SQL Data Warehouse der nächsten Generation

Mit Azure Synapse Analytics bietet Microsoft einen Analysedienst, der die Vorteile von Data Warehouses und Big-Data-Analysen miteinander kombiniert. lesen

Oracle unterstützt Data Scientists in der Cloud

Frisch von der Open World aus London

Oracle unterstützt Data Scientists in der Cloud

Wer Oracle zum ersten Mal auf der „OpenWorld“ in London begegnet wäre, nähme wohl an, das Unternehmen hätte seine Software immer nur aus der Cloud vermarktet. Die Wolke war omnipräsent. Aktuell angekündigt wurden ein OCI-Azure-Interconnect-Zentrum in Amsterdam, eine Partnerschaft mit dem Colocation-Anbieter Equinix sowie eine in die OCI integrierte Infrastruktur für Data Scientists. lesen

Datenintegration ist die Grundlage für Industrie 4.0

Kommentar von Stefan Müller, IT-Novum

Datenintegration ist die Grundlage für Industrie 4.0

Die Fertigungsbranche beschäftigt sich gegenwärtig intensiv mit der Digitalisierung von Produktionsprozessen und Wertschöpfungsketten. Die Voraussetzung dafür ist ein durchdachtes Konzept für die Sammlung, Speicherung und Auswertung der unzähligen Informationen, die bei der Digitalisierung von Produktionsabläufen erzeugt werden. lesen

DataOps als Next Level DevOps?

Kommentar von Bastian Wießner, Eoda

DataOps als Next Level DevOps?

Der Begriff DataOps steht für „Data Operations“. Als agiler Ansatz zielt er auf die Art und Weise ab, wie Daten bzw. deren Analysen genutzt, weiterentwickelt, optimiert und zielführend in neue Datenprodukte überführt werden. DataOps ist damit der nächste logische Schritt, der im Bereich Datenanalytik auf den DevOps-Ansatz folgt. lesen

IT-Novum lädt zum Pentaho User Meeting 2020

Zum siebten Mal in Frankfurt

IT-Novum lädt zum Pentaho User Meeting 2020

Am 11. März veranstaltet IT-Novum bereits zum siebten Mal das Pentaho User Meeting in Frankfurt am Main. Auf dem Programm stehen diesmal unter anderem Themen wie agiles Data Warehousing und Geodatenanalysen. lesen

Informatica erweitert Partnerschaft mit Google

Strategische Zusammenarbeit

Informatica erweitert Partnerschaft mit Google

Der Spezialist für Enterprise Cloud Data Management Informatica baut seine strategische Zusammenarbeit mit Google weiter aus. Im Fokus stehen dabei neue Angebote für die Google Cloud Platform. lesen

AWS baut Redshift und SageMaker aus

Nachbericht AWS re:invent Las Vegas

AWS baut Redshift und SageMaker aus

Amazon Web Services (AWS) hat kürzlich auf seiner Kundenkonferenz AWS re:Invent den 65.000 Besuchern zahlreiche neue Services für Datenbanken und Analysefunktionen vorgestellt. Sie sollen Kunden besonders dabei unterstützen, große Datenmengen zu verarbeiten. Neuerungen in der KI-Entwicklungsumgebung Amazon SageMaker decken die gesamte Prozesskette bis hin zur Überwachung der KI-Modelle ab. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44681573 / Definitionen)