Daten als gleichwertiges Asset eines Unternehmens zu betrachten und auch entsprechend zu behandeln, ist in der digitalisierten Welt ein wettbewerbsrelevanter Faktor. Denn Daten bilden die Basis für Kosteneffizienz und Wachstum durch neue oder optimierte fachliche Funktionen wie Fraud Detection, Customer Self-Service, Predictive Maintenance, Risk Modeling, Churn Prediction und viele weitere Anwendungsfälle.
Die Herausforderung der Balancierung der Plattformentwicklung und der Realisierung datengetriebener Anwendungsfälle
(Bild: Adesso SE)
Datengetriebene Unternehmen besitzen die benötigten Fähigkeiten, derartige Funktionen wirtschaftlich zu nutzen. Sie erfüllen dafür die kulturellen, methodischen, organisatorischen und technologischen Voraussetzungen, Daten vielfältiger, intelligenter und effizienter zu nutzen.
In der Vergangenheit haben Unternehmen unterschiedlicher Branchen den Aufbau dieser Fähigkeiten begonnen, im Folgenden wird ein Teilaspekt davon vorgestellt, nämlich der systematische Aufbau einer Unternehmens-Datenplattform.
Die Herausforderung
Eine einheitliche, umfassende Sicht auf die verfügbaren Daten und die Möglichkeit diese Daten vielfältig zu verwerten, ist die Basis-Fähigkeit, die in vielen Unternehmen heute nur gering ausgeprägt ist. Sie ist die Basis für Anwendungsfälle von der Optimierung der Back-Office-Prozesse, des Marketings bis zur Optimierung der Customer Experience:
Die meisten Unternehmen sind heute (noch) nicht strategisch dafür aufgestellt, die Gesamtheit ihrer Daten insgesamt effizient zu managen und die so möglichen vielen Anwendungsfälle zu adressieren.
Die Verwertung von Daten ist durch Silo-Bildungen, Insellösungen und Redundanzen folglich komplex, aufwendig und langwierig.
Anforderungen an den Aufbau von Datenplattformen
Der Aufbau einer unternehmensweiten Datenplattform ist kein rein technologisches Vorhaben, sondern muss ebenfalls aus den Perspektiven Strategie, Organisation und Prozesse betrachtet werden. Dadurch ergibt sich eine hohe Komplexität des Gesamtvorhabens, welches aus zwei Stoßrichtungen geplant werden kann. Beide Herangehensweisen haben Vorteile, führen jedoch in einer extremen Ausprägung auch zu unterschiedlichen Risiken:
Schließlich gelten folgende Kernanforderungen für den Aufbau zur Minimierung der Risiken und Fokussierung der Wirtschaftlichkeit:
1. Der Aufbau muss balanciert erfolgen, um die Risiken zu minimieren.
2. Der Aufbau muss frühzeitig Wertbeiträge generieren, um die insgesamt hohe Investition in neue Fähigkeiten zu ermöglichen.
Ein logischer Lösungsansatz besteht daher in einer iterativen Vorgehensweise, in der sowohl querschnittliche Anforderungen an eine generische Datenplattform als auch anwendungsspezfische Anforderungen echter Use Cases parallel umgesetzt werden, so dass Wertschöpfung und Plattformaufbau vereint werden (siehe Grafik):
Iterativer Aufbau für die Balancierung von Over-Engineering und Wertschöpfung
(Bild: Adesso SE)
Funktionale Architektur
Für die Umsetzung des iterativen Vorgehens bildet die funktionale Architektur ein wichtiges Element. Die funktionale Architektur beinhaltet Funktionsbausteine, sie beschreibt „was“ eine Datenplattform leisten soll. Im Unterschied zu häufig anzutreffenden technologieorientierten Visualisierungen von Datenplattformen bietet die stringente Betrachtung den essenziellen Vorteil, dass die Bewertung und Betrachtung der Datenplattform durch verschiedene Betrachtungsdimensionen ermöglicht wird. So wird die funktionale Architektur genutzt, um organisatorische, technologische und prozessuale Auswirkungen auf ein Unternehmen zu analysieren und dadurch die gezielte Steuerung und den zielführenden Aufbau entsprechend der Unternehmens-Capabilities zu leisten.
Die bewusste Entkoppelung von Technologien gewährleistet zusätzlich die Übertragbarkeit auf verschiedene Lösungsszenarien und die dauerhafte Arbeit an der Plattform in einer sich technisch und methodisch schnell verändernden Welt.
Die Funktionale Sicht
Die funktionale Architektur beinhaltet verschiedene funktionale Bausteine, die im Folgenden erläutert werden.
Die funktionale Architektur einer Datenplattform
(Bild: Adesso SE)
1. Quell-Integration
Die gleichartige Integration heterogener Datenquellen und -formate ist ein zentraler Aspekt für standardisierte und effiziente Data Ingests. Die zentrale Datenintegration stellt sicher, dass Daten mit geringem Entwicklungsaufwand genutzt und bestellt werden können. Als zentraler Dateneinstiegpunkt ermöglicht die Quell-Integration frühzeitig das Management der Metadaten und stellt dafür einen zentralen Datenkatalog bereit. Dadurch reduziert sich die Zeit zur Anbindung neuer Datenquellen und die Entwicklung der Data Driven Products. Damit werden fachliche Mehrwerte fokussiert.
2. Datenverteilung
Die zentrale Datenverteilung bildet Stream-basierte Verarbeitung ab und ermöglicht die Entwicklung Realtime-basierter DDPs. Als Event-Processing-Komponente verteilt sie Daten innerhalb der Plattform.
3. Datenverwaltung
Das Konstrukt Data Lake geht in der zentralen Datenverwaltung auf. Diese ist universell in der Lage, polystrukturierte Daten verteilt, effizient und von hohem Volumen (Tera- bis Petabyte) dauerhaft zu persistieren. Die Datenverwaltung deckt darüber hinaus Anforderungen nach Katalogisierung und Bereitstellung zur wertsteigenden Aufbereitung sowie Anonymisierung und Sicherheit durch ein Zonenkonzept ab.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Datengetriebene Produkte bilden dezentrale und autarke Ausprägungen einzelner fachlicher Anwendungsfälle ab. Sie schaffen den betriebswirtschaftlichen Mehrwert für das Unternehmen wie Fraud Detection, Risk Modeling oder Churn Prediction. Ein DDP nutzt anforderungsspezifische Technologien zur Persistierung (Daten), Verarbeitung (Logik) und Bereitstellung (Service) datengetriebener fachlicher Funktionen. Dabei dienen die Datenverteilung und Datenverwaltung als Quelle für ein DDP.
5. Analytischer Arbeitsplatz
Für die Exploration von Daten, die Entwicklung und Verprobung von Datenanalysen, zum Beispiel maschinell erlernter Modelle, bietet der analytische Arbeitsplatz eine Umgebung, die unter anderem Datenzugriff, Data-Science-Werkzeuge und Rechenkapazität beinhaltet.
6. Nutzung und Interaktion
Die Nutzung von Interaktion mit den Resultaten datengetriebener Produkte erfolgt neben dem klassischem Reporting und Dashboarding auch durch technische Schnittstellen wie REST und SOAP. Bestimmte Interaktionsformen können Teil eines DDPs und damit der Plattform sein.
7. Governance
Governance-Funktionen bilden die Klammer, um die Datenmanagement-Plattform für grundlegende Aspekte wie Logging, Rechtemanagement, Autorisierung, Data Lineage, Meta-Datenmanagement und weitere.
Implementierungsoptionen
Unser Ansatz ist Technologie-agnostisch. Er kann daher über verschiedenen Betriebsmodelle (On-Premises, Multi-/Hybrid-Cloud) wie auch durch unterschiedliche Technologie-Stacks (Open Source, Cloud, Enterprise Distribution, Mixed) ausgeprägt werden. Exemplarisch wird die funktionale Architektur durch Azure-Analytics-Komponenten und vereinzelt spezialisierte Technologien ausgeprägt. Zum Aufbau der funktionalen Architektur auf der Microsoft-Azure-Data-Plattform werden Microsoft-native Technologien wie auch Azure-basierte Technologien eingesetzt.
Technische Implementierung auf der Basis Microsoft Azure
(Bild: Adesso SE)
Für die Datenintegration eignet sich der Azure Data Lake Gen2. In Verbindung mit der Azure Data Factory Gen2 ergibt sich daraus eine Datenplattform, welche Datenintegration mit Standardschnittstellen bereitstellt und gleichzeitig die Nutzung selbstentwickelte APIs zur Datenintegration ermöglicht.
Im Azure Data Lake werden die Daten des Funktionsbausteins Datenverwaltung in unterschiedlichen Zonen abgelegt. Die Zonen haben den Zweck die Quelldaten historisch zu speichern, zu standardisieren und zu kuratieren. Für die technischen Aufbereitungen der Daten in den Zonen wird je nach geforderter Komplexität die Azure Data Factory oder Azure Databricks verwendet.
„Single Point of Truth“
Der Azure Data Lake ist der „Single Point of Truth“ einer unternehmensweiten Datenplattform, welcher die Daten für dedizierte DDPs und für die Arbeitsplätze zur Erforschung der Daten und Entwicklung von Advanced-Analytics-Modellen bereitstellt.
Für den Funktionsbaustein Datenverteilung zur Stream-basierte Verarbeitung von Daten und Entwicklung Realtime-basierter DDPs, werden die Technologien Apache Kafka sowie Azure IoT & Event Hub genutzt.
Die DDPs können in ihrem Zweck heterogen sein. Beispielsweise ein Data Warehouse (DWH) inklusive Data Marts, welches Daten für andere DDPs bereitstellt. Weitere Ausprägungen sind ein (übergreifendes) DDP, wie auch ein einzelner fachlich abgegrenzter Data Mart (Zweck-bezogenes DDP). Die Heterogenität der verschiedenen DDP-Ausprägungen forciert hohe Flexibilität beim Einsatz der Technologien.
In einem Reporting- und Analytics-Kontext werden Synapse Analytics, Azure SQL Database oder Snowflake eingesetzt, um Datenstrukturen und Data Marts zu entwickeln. Die Data Marts werden den Nutzern mit Reporting- oder Analysetools wie dem Power-BI-Portal bereitgestellt.
Entwicklung im Arbeitsplatz und Bereitstellung
Für die Entwicklung im Arbeitsplatz und der Bereitstellung ML/DL basierter DDPs, werden Azure Machine Learning Services oder Databricks verwendet. Diese bieten die Möglichkeit, Tools wie ML Flow oder der Azure Datafactory anzuwenden und dadurch automatisierte Pipelines aufzubauen und Streaming-Daten (Stream-basiertes DDP) zu klassifizieren.
Für die Entwicklung und Bereitstellung von DDPs unterstützt Azure DevOPs durch automatisierte CI/CD-Pipelines.
Um die in Unternehmen geltenden Richtlinien an Governance zu gewährleisten, werden auf der Microsoft-Azure-Data-Plattform zur Sicherstellung der Sicherheits-, Authentifizierungs- und Datenqualitätsanforderungen die Technologien wie Azure Data Catalog als Nachschlagewerk zu den Daten, das Azure Active Directory zur sicheren Authentifizierung der Nutzer und Azure Key Vault zur sicheren Verwahrung und Nutzung von sensiblen Daten zur Authentifizierung genutzt.
Technologien im Überblick
(Bild: Adesso SE)
Begleitende Handlungsfelder auf dem Weg zum datengetriebenen Unternehmen
Datenplattformen sind ein wichtiger Baustein eines datengetriebenen Unternehmens. Der Artikel zeigt, welche Aspekte zu einer Plattform wie adressiert werden können. Zu adressierende und zu orchestrierende Fragestellungen und begleitende Handlungsfelder für Unternehmen, die hier nicht weiter behandelt werden können, aber typischerweise parallel begleitet werden, betreffen Themen der Datenstrategie, Cloud-Strategie, eines Change-Programms für den Wandel beziehungsweise die Weiterentwicklung der Organisation mit ihren Prozessen, Personen und Kompetenzen.