Definition

Was ist Datenvirtualisierung?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Die Datenvirtualisierung ist ein Ansatz des Datenmanagements, der von der klassischen Datenaufbereitung abweicht. Daten lassen sich in Echtzeit abfragen und analysieren, ohne dass Information zu technischen Details oder physischen Speicherorten vorliegen. Die Daten werden zum Abfragezeitpunkt ohne Replikation aus verteilten Quellen bereitgestellt.

Der Begriff der Datenvirtualisierung beschreibt einen im Bereich des Datenmanagements angesiedelten Ansatz der Datenbereitstellung und Datenintegration. Anwendern oder Applikationen werden zum Abfragezeitpunkt Daten aus unterschiedlichen Quellen bereitgestellt, ohne dass technische Details oder physische Speicherorte bekannt sein müssen.

Häufig findet das Konzept der Datenvirtualisierung im Bereich des Data Warehousings und der Business Intelligence Anwendung. Anstatt Daten klassisch zu extrahieren, zu transformieren und in einem Data Warehouse oder Data Lake gespeichert den Anwendungen zur Weiterverarbeitung oder Analyse bereitzustellen, findet die Extraktion und Transformation der Daten direkt zum Abfragezeitpunkt statt. Für die Anwendung verhält sich die Datenvirtualisierung wie ein Data Warehouse oder ein Data Lake, allerdings stammen die Daten in Echtzeit aus den eigentlichen Quellsystemen. Die Informationen werden in verschiedenen Formaten aus den verteilten Systemen integriert und müssen für die Speicherung in einem Data Warehouse nicht extra repliziert werden. Es entsteht eine virtualisierte Datenebene, auf die die weiteren Anwendungen direkten Zugriff haben.

Diese Vorgehensweise hat den Vorteil, dass sie im Vergleich zur klassischen Datenintegration wesentlich agiler ist und weniger Datenkopien notwendig sind. Der Speicherplatzbedarf sinkt und Systeme sind weniger stark ausgelastet. Um die Daten den Applikationen oder Anwendern in der gewünschten Form bereitzustellen, werden verschiedene Transformations- und Abstraktionstechniken angewandt.

Funktionsweise der Datenvirtualisierung

Datenvirtualisierung extrahiert und transformiert die benötigten Informationen aus den verteilten Quellen dynamisch in Echtzeit. Die Virtualisierung findet in mehreren Schritten statt. Zunächst sind die Verbindungen zu den jeweils benötigten strukturierten oder unstrukturierten Datenquellen über spezielle Konnektoren aufzubauen und die Daten der Virtualisierungsebene bereitzustellen. In einem nächsten Schritt werden die Daten abhängig von der benötigten Datenansicht und den vorhandenen Metadaten transformiert, kombiniert und integriert. Abschließend erfolgt die eigentliche Bereitstellung der Daten für die Applikation beispielsweise in eine im SQL-Schema oder in einer grafischen Form. Folgende Funktionen muss die Datenvirtualisierung ausführen:

  • Herstellung der Verbindung zu den verschiedenen verteilten Datenquellen und Speicherorten
  • Extraktion und Zusammenführung der Daten
  • Integration strukturierter und unstrukturierter Daten
  • Transformation der Daten in das gewünschte Format
  • dynamische Bereitstellung der Daten in der für den Anwender oder die Applikation benötigten Form

Vorteile durch den Einsatz der Datenvirtualisierung

Der Einsatz der Datenvirtualisierung bietet einem Unternehmen eine ganze Reihe von Vorteilen. Entstehen Anforderungen für neue BI-Auswertungen, sind nicht erst neue Tabellen im Data Warehouse anzulegen und Daten aus den verschiedenen Quellen zu integrieren, sondern die Anforderungen lassen sich sehr schnell direkt innerhalb der Datenvirtualisierung umsetzen. Die Datenvirtualisierung bietet für Anwendungen die gleichen Funktionen wie die klassische Datenintegration nur schneller, dynamischer und mit geringerem Ressourcen- und Kostenaufwand. Es entsteht eine hohe Flexibilität. Da Daten nicht mehr repliziert werden müssen, steigt ihre Qualität und Integrität. Kurz zusammengefasst sind die Vorteile der Datenvirtualisierung folgende:

  • Zugriff auf Daten in Echtzeit
  • Daten aus unterschiedlichsten Quellen integrierbar
  • schnelle und dynamische Umsetzung neuer Business-Intelligence-Anforderungen
  • geringerer Entwicklungsaufwand für Analysen
  • mehr Flexibilität im Vergleich zum klassischen Data Warehouse
  • keine Notwendigkeit der Datenreplikation durch Verbleib der Daten im originalen Quellsystem
  • bessere Qualität und Integrität der Daten durch die Vermeidung der Datenreplikation
  • Reduzierung der Kosten und der benötigten Speicherressourcen
  • Reduzierung der Systemlast
  • hohe Agilität der Analysemöglichkeiten und tiefe Einblicke in die Unternehmensdaten

Nachteile durch den Einsatz der Datenvirtualisierung

Neben den vielen Vorteilen kann die Datenvirtualisierung einige Nachteile mit sich bringen. Langsame Quellsysteme können die Geschwindigkeit der virtuellen Datenintegration stark reduzieren. Viele Quellsysteme sind nicht für dynamische Abfragen in großer Zahl konzipiert. Unter Umständen sind durch die Abfragen der Datenvirtualisierung in den Quellsystemen die Performance, Antwortgeschwindigkeit und Verfügbarkeit der eigentlichen Anwendung beeinträchtigt. Weitere Nachteile können das Fehlen einer Änderungshistorie der Daten und die mangelnde Homogenität des Datenmodells sein.

Einsatzmöglichkeiten der Datenvirtualisierung

Die Datenvirtualisierung ist in vielen Bereichen einsetzbar. Überall dort, wo Daten aus vielen verschiedenen Quellen zu analysieren sind, bietet Datenvirtualisierung eine Lösung. Anstatt eine zusätzliche Datenhaltung in einem Data Warehouse oder Data Lake zu implementieren, bildet die Datenvirtualisierung die direkte Schnittstelle zu den Quellsystemen. Der Ansatz der Datenvirtualisierung ist eine echte Alternative zu klassischen ETL-Prozessen (Extract, Transform, Load) und zum Data Warehouse. Anwendungen des Business-Intelligence- und Big-Data-Umfelds profitieren von der Agilität, der Flexibilität und den geringen Ressourcenanforderungen der virtualisierten Datenintegration.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Daten-Virtualisierung ist eine Ergänzung, aber kein Ersatz

Kommentar von Mathias Golombek, Exasol

Daten-Virtualisierung ist eine Ergänzung, aber kein Ersatz

Große Datenmengen aus mehreren Quellen werden mithilfe von Data Analytics zu geschäftsrelevanten Zusammenhängen. Üblicherweise werden die dafür benötigten Daten aus den verschiedenen Quellen in die Datenbank repliziert. Doch gerade, wenn die Menge der Daten und die Anzahl der Quellen wachsen, kann es sinnvoll sein, eine virtuelle Datenebene zu schaffen. lesen

Digitalisierung für mehr Qualität und Service im Schienengüterverkehr

Splunk im Einsatz bei der DB Cargo

Digitalisierung für mehr Qualität und Service im Schienengüterverkehr

Splunk Enterprise, das Hauptprodukt des Operational-Intelligence-Spezialisten Splunk, ist bei DB Cargo im Einsatz, der Güterbahnsparte der Deutschen Bahn. Im Zuge der Digitalisierung und Automatisierung des Güterverkehrs und des Fuhrparks hilft Splunk Enterprise bei der Datenerfassung und -analyse in den Projekten „Wagon Intelligence“ und „TechLOK“. Die Software-Entwicklung der beiden Projekte findet im DB Cargo amspire lab in Frankfurt am Main statt. lesen

Datenvirtualisierung auf der Denodo-Plattform

Reale Analyse-Szenarien in weniger als zwei Stunden

Datenvirtualisierung auf der Denodo-Plattform

Denodo, spezialisiert auf Datenvirtualisierung, bietet ab sofort eine kostenlose Testumgebung auf der Denodo-Plattform an. Diese soll mithilfe einer Schritt-für-Schritt-Anleitung in weniger als zwei Stunden einsatzbereit sein und Anwendern so in kurzer Zeit erste Eindrücke aus der Welt der Datenvirtualisierung vermitteln. lesen

Tibco startet Data Virtualization 8

Über AWS erhältlich

Tibco startet Data Virtualization 8

Im Rahmen der AWS re:Invent 2018 hat Tibco die allgemeine Verfügbarkeit von Data Virtualization 8 bekanntgegeben. Die neue Software soll störende Datenengpässe beseitigen und nutzt dazu eine agile, ultraschnelle virtualisierte Datenschicht. lesen

Big Data ist der Rohstoff – Datenvirtualisierung die Raffinerie

Kommentar von Günther Derstroff, Denodo

Big Data ist der Rohstoff – Datenvirtualisierung die Raffinerie

Big Data ist eine stetig wachsende Ressource. Das ist nicht neu. Diese „Rohdaten“ effizient zu verwalten und zu analysieren, bereitet Unternehmen jedoch noch immer große Probleme. Günther Derstroff, Senior Sales Director bei Denodo, nennt drei Gründe, warum Datenvirtualisierung die richtige Antwort darauf ist. lesen

Datenvirtualisierung – den großen Vorteil aus Daten ziehen

Kommentar von Wolfgang Kelz, ‎Tibco

Datenvirtualisierung – den großen Vorteil aus Daten ziehen

Hießen früher die Wettbewerbsfelder Produktionskapazität und Finanzkapital, so messen sich Unternehmen heute im Bereich des Informationsmanagements. Unternehmen haben nur Erfolg, wenn sie ihre Daten auch bestmöglich zu nutzen wissen. Dafür müssen sich Unternehmen einigen technischen Herausforderungen stellen und das ist kein einfaches Unterfangen. lesen

Das Virtual Data Warehouse verhilft zur schnelleren digitalen Transformation

Big Data und Virtual Data Warehouse

Das Virtual Data Warehouse verhilft zur schnelleren digitalen Transformation

Das traditionelle Data Warehouse ist auf die Verarbeitung strukturierter Daten ausgelegt, welche es effizient und performant erledigt. Doch Big Data besteht aus unstrukturierten Daten, Datenströmen, die in großen Mengen und mit hoher Geschwindigkeit eintreffen. Um Leistung und Effizienz zu erhalten, aber Flexibilität hinzuzugewinnen, bietet das Virtual Data Warehouse eine vielversprechende Alternative. lesen

Qualifizierungsoffensive für effiziente Datenverwaltung

Online-Kurse von Actifio

Qualifizierungsoffensive für effiziente Datenverwaltung

Actifio, Spezialist für die Virtualisierung von Datenkopien, hat ein neues Online-Qualifizierungsprogramm zum Thema Datenvirtualisierung ins Leben gerufen. lesen

Oracle identifiziert sechs wichtige Big-Data-Trends

Big Data wird 2016 Mainstream

Oracle identifiziert sechs wichtige Big-Data-Trends

Oracle wirft bei Big Data einen Blick in die Glaskugel. Wichtigste Erkenntnis: Daten sind „das Gold des Digitalen Zeitalters“ und im Gegensatz zum Edelmetall nicht endlich. 2016 wird Big Data im Mainstream ankommen. Der Rohstoff Daten trägt aber nur dann zu einer Steigerung der Wertschöpfung bei, wenn es Unternehmen gelingt, die Spreu vom Weizen zu trennen. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45992195 / Definitionen)