Data Engineers gestalten die Grundlagen moderner, skalierbarer Dateninfrastrukturen. Mit dem technischen Fortschritt steigen jedoch auch die Anforderungen an diese Rolle. Unternehmen setzen vermehrt auf Cloud-Lösungen und binden KI-gestützte Analysen in ihre Geschäftsprozesse ein.
Der Autor: Thomas Lorenz ist Director Solutions Consulting bei Appian
(Bild: Appian)
Damit Künstliche Intelligenz (KI) präzise und schnell agieren kann, bedarf es Echtzeitdaten mit hoher Qualität – eine Herausforderung, die Data Engineers zunehmend unter Druck setzt: Sie müssen Daten schneller und effizienter bereitstellen, oft bei begrenzten Ressourcen. Diese Aufgabe wird durch heterogene Datenquellen und Datensilos zusätzlich erschwert.
Data-Fabric-Architekturen bieten hier einen neuen Ansatz. Sie verknüpfen unterschiedlichste Datenquellen über eine virtuelle Schicht und ermöglichen es Data Engineers, sich verstärkt auf innovative Aufgaben zu konzentrieren, während Unternehmen ihre Wettbewerbsfähigkeit sichern. Doch Data Fabrics bedeuten nicht nur Effizienzsteigerung. Sie verändern die Rolle der Datenexperten grundlegend. Früher verantworteten Data Engineers vor allem Infrastruktur und Datenmanagement, während Data Scientists sich auf Analysen und Modellentwicklung konzentrierten. Heute verschwimmen diese Rollen zunehmend – insbesondere durch den Einsatz von KI.
Moderne Data-Fabric-Plattformen wie die von Appian vereinen Datenzugriff und integrierte KI-Funktionalitäten – von der Dokumentenverarbeitung über generative KI bis hin zur Automatisierung ganzer Entscheidungsprozesse. „AI in Process“ wird damit zur Realität und erweitert das Aufgabenspektrum der Data Engineers. Gerade jene mit Kenntnissen im Bereich Data Science profitieren von dieser Entwicklung. Das Rollenverständnis von Data Engineers wird sich heute und in Zukunft durch drei maßgebende Entwicklungen grundlegend verändern:
1. Vom Entwickler zum Innovationsmotor
Traditionell programmieren Data Engineers Schnittstellenlösungen, um Daten aus verschiedenen Quellen zu extrahieren, zu bereinigen und für die Weiterverarbeitung bereitzustellen – meist mit erheblichem manuellem Aufwand und damit verbundenen Fehler- sowie Sicherheitsrisiken. Data Fabrics reduzieren diese Komplexität durch eine vereinheitlichte Datenintegration, etwa via JDBC für Datenbanken oder HTTP für externe Schnittstellen. Das Ergebnis ist eine konsolidierte Datenbasis mit minimalem Fehlerrisiko. Gleichzeitig ermöglichen moderne Plattformen Fachanwendern nicht nur das Abrufen, sondern auch das direkte Bearbeiten von Daten – zentral und ohne Systemwechsel.
Data Fabrics werden zunehmend zum Rückgrat KI-gestützter Geschäftsprozesse. Diese Entwicklung ermöglicht es Data Engineers, sich von rein operativen Tätigkeiten zu strategischeren Aufgaben wie der Entwicklung von Analysen, KI-Modellen und Automatisierungslösungen weiterzuentwickeln – Bereiche, die bislang primär Data Scientists vorbehalten waren.
Allerdings sind nicht alle Data-Fabric-Lösungen gleich skalierbar, insbesondere im Bereich der Schreibzugriffe. Viele sind primär für Lesezugriffe optimiert und stoßen bei Schreiboperationen schnell an ihre Grenzen. Den Ansprüchen der meisten Unternehmen wird das nicht gerecht, denn für sie sind Lösungen gefragt, die nativ bis in die Millionenhöhe an Zeilen pro Datensatz skalieren.
2. Proaktives Handeln mit Echtzeit-Daten
Während Data Fabrics Datenquellen verbinden, gehen sogenannte Operational Data Fabrics noch einen Schritt weiter: Sie ermöglichen die Verarbeitung und Analyse von Daten in Echtzeit. Unternehmen können so deutlich schneller und fundierter Entscheidungen treffen, beispielsweise bei der Steuerung von Lieferketten auf Basis aktueller Bestandsdaten.
Auch im Reporting erleichtert die Technik die Arbeit: Wo früher komplexe Batch-Prozesse nötig waren, um Berichte zu generieren, übernehmen heute Operational Data Fabrics die Datenverarbeitung automatisch. Das Ergebnis: Fachabteilungen erhalten aktuelle Auswertungen und Benachrichtigungen, auf die sie direkt reagieren können.“
Darüber hinaus erweitert KI diesen Echtzeit-Fokus: Generative KI leitet aus strukturierten und unstrukturierten Daten automatisiert Entscheidungen, Empfehlungen oder Warnmeldungen ab. Somit können Data Engineers vorausschauende Prozesse wie Predictive Maintenance, automatisierte Workflows oder KI-basierte Qualitätskontrollen realisieren und gewinnen mehr Zeit für strategische Aufgaben wie Optimierung, Qualitätssicherung und Weiterentwicklung von Datenmodellen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
3. Mehr Sicherheit erlaubt stärkeren Fokus auf Strategie
Datensicherheit bleibt ein zentrales und anspruchsvolles Thema. Bei klassischen Architekturen wie Data Lakes oder Warehouses, in denen sensible Daten zentral gespeichert werden, können Sicherheitsvorfälle schwerwiegende Folgen haben. Die Verantwortung für den Schutz dieser Daten lag bisher oft bei den Data Engineers.
Data Fabrics verlagern einen Großteil der Sicherheitsverantwortung von einzelnen Engineers auf die Plattform selbst. Die besten Lösungen bringen Governance von Anfang an mit – Sicherheitsrichtlinien sind direkt im Datenmodell verankert und lassen sich auf verschiedenen Ebenen rollenbasiert definieren. Kontextabhängige Regeln steuern dynamisch, wer worauf zugreifen darf. So gelten einheitliche Zugriffsrichtlinien über alle Anwendungen und Workflows hinweg.
Einmal definierte Regeln greifen unabhängig vom Zugriffsweg – ob intern über Dashboards, über eine API oder durch ein externes KI-Modell. Das reduziert Sicherheitsrisiken und stellt sicher, dass Governance automatisch in allen Umgebungen eingehalten wird.
Für Data Engineers bedeutet das: weniger Aufwand bei der Sicherheitskonfiguration und mehr Zeit für die Gestaltung skalierbarer, regelkonformer Datenstrukturen.
Data Engineering und Data Science wachsen zusammen
Künftig werden Data Engineers weit mehr als reine Infrastrukturverwalter sein. Sie agieren in intelligenten, dynamischen Datenumgebungen – mit Fokus auf Self-Service-Plattformen, Governance, der Optimierung von Echtzeitdatenströmen und der Integration von KI in sämtliche Prozessstufen.
Die Grenzen zwischen Data Engineering und Data Science verschwimmen damit zunehmend. Data Engineers benötigen ein tieferes Verständnis analytischer und KI-gestützter Methoden, während Data Scientists stärker in die Architektur- und Plattformgestaltung eingebunden werden. So entsteht eine neue Rolle: technisch versiert, analytisch denkend, KI-affin und nahe an den Geschäftsentscheidungen.