Definition

Was ist ein Data Warehouse?

| Autor / Redakteur: Tutanch / Nico Litzel

(© aga7ta - Fotolia)

Das Data Warehouse stellt ein zentrales Datenbanksystem dar, das zu Analysezwecken im Unternehmen einsetzbar ist. Das System extrahiert, sammelt und sichert relevante Daten aus verschiedenen heterogenen Datenquellen und versorgt nachgelagerte Systeme.

Der Begriff Data Warehouse beschreibt eine Plattform, die Daten aus verschiedenen Datenquellen sammelt, verdichtet, sie langfristig sichert und nachgelagerte Analysesysteme versorgt. Oft wird das Data Warehouse auch als Datenlager bezeichnet. Vorteil des Datenlagers ist, dass eine globale Sicht auf Daten aus unterschiedlichen Datenbeständen entsteht. Gleichzeitig vereinfacht sich der Zugriff auf die Daten für Anwender, da sie in einer zentralen Datenbank konsistent und strukturiert bereitgestellt sind.

Den nachgelagerten Anwendungen bietet das Data Warehouse spezifisch erstellte Auszüge, die sogenannten Data Marts. Die bereitgestellten Daten lassen sich nach bestimmten Mustern analysieren und beispielsweise zur Ermittlung von betrieblichen Kennzahlen einsetzen. Oft stellt das Datenlager die Ausgangsbasis für das Data Mining dar. Die Gesamtheit aller Prozesse zur Datenbeschaffung, Verwaltung, Sicherung und Bereitstellung der Daten nennt sich Data Warehousing.

Das Data Warehousing ist in vier Teilprozesse aufteilbar:

  • Datenbeschaffung: Beschaffung und Extraktion der Daten aus verschiedenen Datenbeständen
  • Datenhaltung: Speicherung der Daten im Datenlager inklusive Langzeitarchivierung
  • Datenversorgung: Versorgung der nachgelagerten Systeme mit den benötigten Daten, Bereitstellung von Data Marts
  • Datenauswertung: Analysen und Auswertungen der Datenbestände

Architektur und Prozesse des Data Warehouse

Die Prozesse des Data Warehouse lassen sich in einem Architekturschaubild vier verschiedenen Bereichen zuordnen. Diese vier Bereiche sind:

  • die Quellsysteme,
  • die Data Staging Area,
  • die Data Presentation Area sowie
  • die Data Access Tools.

Die Daten für das Datenlager werden von verschiedenen Quellsystemen bereitgestellt. Die Staging Area des Data Warehouse extrahiert, strukturiert, transformiert und lädt die Daten aus den unterschiedlichen Systemen. Über die Staging Area gelangen die Daten in die eigentliche Datenbank des Datenlagers. Diese Datenbank stellt eine parallele Speicherplattform, die Data Presentation Area, zu den eigentlichen Quellsystemen dar und ermöglicht einen separaten Datenzugriff für Anwendungen und nachgelagerte Systeme.

Der Datenzugriff erfolgt über diverse Data Access Tools auf verschiedenen Ebenen, den sogenannten Data Marts. In der Regel basiert das Data Warehouse auf relationalen Datenbanken, die sich mittels SQL-Abfragen (Structured Query Language) auslesen lassen. Bei besonders großen Datenmengen kommen oft OLAP-Datenbanken (Online Analytical Processing) für eine hierarchische Strukturierung der Daten zum Einsatz.

Das Data Warehouse wird meist in regelmäßigen Abständen mit neuen Daten beladen. Mehr und mehr setzen sich Systeme durch, bei der die Datenversorgung des Datenlagers in Echtzeit erfolgt. Das Data Warehouse sorgt für die saubere Trennung von operativen und auswertenden Systemen und ermöglicht Analysen in Echtzeit. Diese sind wiederum dafür nutzbar, operative Systeme zu steuern.

Das Data Warehouse im Unternehmensumfeld

Im Unternehmensumfeld kommt das Data Warehouse in vielen Bereichen zum Einsatz. Es soll als unternehmensweit nutzbares Instrument verschiedene Abteilungen und die Entscheider flexibel unterstützen. Das Datenlager stellt die benötigten Daten für die Anwender zur Analyse von Unternehmensprozessen und -kennzahlen bereit. Für folgenden Aufgaben ist das Datenlager nutzbar:

  • Kosten- und Ressourcenermittlung,
  • Analyse von Geschäfts- und Produktionsprozessen,
  • Bereitstellung von Reports und Statistiken,
  • Ermittlung von Unternehmenskennzahlen,
  • Bereitstellung von Daten für weitergehende Analysen und Data Mining sowie
  • Strukturierung und Harmonisierung von Datenbeständen für eine globale Unternehmenssicht.

Big Data – der Data Lake als Ergänzung zum Data Warehouse

Eine Schwäche des Data Warehouse ist, dass es sich hauptsächlich auf die Beschaffung und Bereitstellung von herkömmlichen, strukturierten Daten vornehmlich aus SQL-Datenbanken konzentriert. Im Big-Data-Umfeld ist es allerdings notwendig, auf eine Vielzahl an Informationen zuzugreifen, die oft nur in unstrukturierter Form zur Verfügung stehen. Zudem sind deutlich größere Datenmengen zu beschaffen und bereitzustellen.

Um diese Herausforderungen zu meistern, ist das ergänzende Konzept des Data Lakes entstanden. Das Data Warehouse kann mithilfe des Data Lakes zu einer Big-Data-Analyseplattform ausgebaut werden. Der Data Lake bietet hohe Speicherkapazität und ermöglicht es, große Datenmengen abzulegen. Gleichzeitig ist er in der Lage, verschiedenste Datenformate, auch unstrukturierte, zu verarbeiten. Die im Data Lake gespeicherten Daten können bei Bedarf für Analysen herangezogen werden.

Allerdings sind die heterogenen Data-Lake-Informationen in einem Zwischenschritt aufzubereiten, damit Anwender mit den passenden Werkzeugen darauf zugreifen können. Durch geeignete Transformationen entstehen aus den unstrukturierten Rohdaten des Data Lakes strukturierte Datenbestände, die sich mit den Data Access Tools des Data Warehouse darstellen und analysieren lassen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Stitch Data Loader von Talend unterstützt Azure

Datenintegrationstool erweitert

Stitch Data Loader von Talend unterstützt Azure

Die Cloud-Datenintegrationslösung Data Stitch Loader von Talend unterstützt ab sofort auch Microsoft Azure SQL Data Warehouse. Entwickler können über das Tool Daten für Analysen innerhalb kurzer Zeit erfassen. lesen

Der Data Lake integriert sich

Data Lakes

Der Data Lake integriert sich

Data Lake oder Data Warehouse? So schien lange Zeit die Alternative für Unternehmen zu lauten. Doch wie so oft gibt es in der betrieblichen IT kein Entweder-oder, sondern beide Infrastrukturen tauchen zunehmend gemeinsam auf. lesen

Big Data im Phantasialand

Data Analytics 2019

Big Data im Phantasialand

Am 26. und 27. März findet im Phantasialand in Brühl bei Köln die Datenkonferenz Data Analytics 2019 statt. Die DOAG und Oracle sorgen auch diesmal für ein vielfältiges Programm rund um Analysen im Zusammenspiel mit Big Data, Machine Learning und der Cloud. lesen

Daten zentral verwalten, ohne die Nutzer einzuengen

Zalando toleriert die „Schatten-KI“

Daten zentral verwalten, ohne die Nutzer einzuengen

Der Vorteil von Machine-Learning- und Deep-Learning-Anwendungen schwindet, wenn jedes Team das Rad neu erfindet. So die Überzeugung von Kshitij Kumar, Leiter des Zalando-Bereichs Data Infrastructure. Deshalb steht sein Team dem gesamten „Zalando Fashion Store“ als zentrale Instanz für Data-Warehouse- und „KI“-Applikationen zu Verfügung. Benötigt nun aber eine Geschäftseinheit partout etwa Eigenes, so fungieren die „Data-Infras“ als Consulting- und Servicegruppe. lesen

Thomas Timm will neue Teradata-Strategie umsetzen

Cloud und Mittelstand

Thomas Timm will neue Teradata-Strategie umsetzen

Der Analytics-Spezialist Teradata hat dem deutschen Markt einen eigenen Country Manager spendiert. Bisher hatte Sascha Puljic diese Aufgabe erfüllt – zusätzlich zu seinen Pflichten als Manager für Zentraleuropa, Großbritannien und Irland (CEUKI). Jetzt kümmert sich der langjährige Teradata-Executive Thomas Timm exklusiv um die deutschen Kunden. Hier verrät er, was ihm dabei wichtig ist. lesen

Mitarbeiter sind der Schlüssel zur Digitalisierung

Kommentar von Michael Märtin, Atlantis Media

Mitarbeiter sind der Schlüssel zur Digitalisierung

Digitale Technologien sind in den meisten Unternehmen angekommen, doch um wirklich datengetrieben – und damit erfolgreich – arbeiten zu können, fehlen vielen die strategische Planung und der nötige lange Atem. Der technologische Fortschritt allein generiert weder spürbare Wettbewerbsvorteile noch kann er den Gewinn langfristig steigern. Stattdessen sollten Unternehmen strategisch vorgehen und ihre Unternehmenskultur so anpassen, dass sie auch zukünftig wettbewerbsfähig sind. lesen

Bologna im Zeichen von IoT Analytics und Smart Citys

Nachbericht Pentaho Community Meeting 2018

Bologna im Zeichen von IoT Analytics und Smart Citys

Auf dem Pentaho Community Meeting in Bologna, das zum elften Mal stattfand, tauschten sich über 220 User aus 25 Ländern zu IoT, Analytics, Machine Learning und Datenintegration aus, 27 Referenten stellten spannende Entwicklungen und Projekte vor. Organisiert wurde das Community-Meeting von Hitachi Vantara sowie dem deutschen Hitachi-Vantara-Partner IT-Novum. lesen

Self-Service Business Intelligence – Chance oder Risiko?

Kommentar von Philipp Lenz, Adesso

Self-Service Business Intelligence – Chance oder Risiko?

Bei Self-Service Business Intelligence (SSBI) erhält der Fachanwender die Freiheit, sich selbstständig an den Datentöpfen innerhalb und an Daten außerhalb der Organisation zu bedienen, die Daten selbstständig aufzubereiten, zu gruppieren sowie darzustellen. Der folgende Artikel geht auf die Chancen und Gefahren von SSBI ein und schlägt Lösungswege für eine funktionierende Umgebung mit der IT und den Fachabteilungen vor. lesen

Fujitsu stellt KI- und Datenanalyse-Framework Sholark vor

Geschäftsentscheidungen beschleunigen

Fujitsu stellt KI- und Datenanalyse-Framework Sholark vor

Mit Sholark will Fujitsu seinen Unternehmenskunden einen neuen Weg bieten, um die digitale Transformation ihrer Geschäftsprozesse voranzutreiben. Das Framework liefert dazu unter anderem Erkenntnisse aus unstrukturierten Daten. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44681573 / Definitionen)