DataOps Agilität bringt klare Wettbewerbsvorteile
Anbieter zum Thema
Wo Big Data die Richtung vorgibt, handelt das Unternehmen im Takt neu erlangter Erkenntnisse – zeitnah und zielwirksam. DataOps macht es möglich.

In deutschen Chefetagen ist Big Data längst ein fester Begriff und beliebtes Gesprächsthema. Was man jedoch unter DataOps versteht, ist noch nicht überall angekommen. In der Pre-COVID-Ära waren „datengetriebene Unternehmen“ relativ rar gesät. Seit die Pandemie als Turbo-Booster die Digitalisierung der Wirtschaft vorantreibt gewinnt das Stichwort „DataOps“ notgedrungen auch im Mittelstand an Fahrt.
Bei DataOps (kurz für Data Operations) handelt es sich um eine Reihe von Erfolgsmethoden (Engl. Best Practices) und Technologien zur Nutzung von Daten im operativen Geschäft. Ein bewährter Prozessverbesserungsansatz namens DevOps liefert hierzu die nötige Inspiration.
Was versteht man unter DataOps?
Unter Druck der digitalen Transformation beginnen Unternehmen, datengetriebene Entscheidungen im operativen Tagesgeschäft im Rahmen von DataOps-Initiativen KI/ML-getrieben zu automatisieren. Das Konzept macht Anleihen bei DevOps, dem Prozessverbesserungsansatz zur kontinuierlichen Integration und Bereitstellung von Softwarecode. Doch während DevOps primär in der Software-Entwicklung zum Einsatz kommt, spielt sich DataOps bei der Verarbeitung von Big Data durch Software ab.
Der Begriff DevOps (kurz für Development Operations) bezeichnet eine Kombination von Ansätzen, Arbeitsweisen und Werkzeugen, die in den vergangenen paar Jahren die Softwareentwicklung revolutionierte.
Die Methodologie von DevOps zielt auf die Umsetzung einer planmäßig orchestrierten Abfolge von Arbeitsschritten ab, die eine kontinuierliche Softwareentwicklung und -Bereitstellung in kleinen iterativen Verbesserungen ermöglichen soll. Der DevOps-Ansatz hat es Unternehmen ermöglicht, Cloud-native verteilte Anwendungen von hoher Komplexität zuverlässig bereitzustellen und dabei schneller als je zuvor zu innovieren. Die Methodologie setzt auf automatisierte Nachschubwege zur Integration und Bereitstellung von neuem Software- und Infrastrukturcode. Viele Unternehmen wollen den Ansatz jetzt auf ihre Datenflüsse anwenden. Der DevOps-Ansatz, übertragen auf den „Rohstoff“ Daten, hat DataOps auf den Plan gerufen.
Führende Anbieter von Anwendungssoftware – von Microsoft über Oracle bis hin zu SAP und anderen – konnten dank DevOps den mehrjährigen Entwicklungszyklus ihrer Produkte in einen kontinuierlichen Fluss von Verbesserungen umwandeln und sicherten sich dadurch massive Wettbewerbsvorteile. Eine ähnliche Transformation streben viele Unternehmen jetzt in ihrem operativen Geschäft an: mit datengetriebenen Entscheidungen über automatisierte Nachschubwege.
Während IT-Administratoren und Softwareentwickler in DevOps-Rollen die laufenden Technologieprozesse rund um die Service-Bereitstellung verwalten, befasst sich DataOps mit dem End-to-End-Datenfluss in einem Unternehmen. Dies bedeutet insbesondere die Beseitigung von Hindernissen, welche die Nützlichkeit oder Zugänglichkeit von Big Data einschränken, und die Bereitstellung von Werkzeugen zur Datenauswertung (typischerweise von Drittanbietern) für DataOps-as-a-Service und/oder Big-Data-as-a-Service.
Datengetriebene Entscheidungen fallen auch in der Chefetage nicht vom Himmel. Es bedarf robuster Datenquellen, praxiserprobter Analysewerkzeuge und einer datenfreundlichen Unternehmenskultur, um Engpässe und Barrieren auf dem Weg von der Erfassung der Messwerte hin zur Umsetzung von Handlungen zu beseitigen und das volle Potenzial auszuloten. Die DevOps-Methodologie schafft Abhilfe.
Big Data für den Betrieb
Daten sind das neue Öl; sie fließen durch das Unternehmen wie Petroleum durch eine Ölraffinerie. Für viele Unternehmen ist es die höchste Eisenbahn, das operative Geschäft datengetrieben zu lenken.
Die Vorreiter von DataOps haben es vorgemacht: Mit den richtigen Ansätzen und Arbeitstechniken können Unternehmen das Wertschöpfungspotenzial ihrer Datenquellen maximieren. So zum Beispiel die Shell-Gruppe.
„Wir haben einen globalen Asset-Pool von Ölraffinerien, von Produktionsanlagen, und sogar von Dingen wie Windkraftwerken“, freut sich Daniel Jeavons, GM beim Ölkonzern Shell. (...). Denn all diese Anlagen erzeugten ständig Telemetriedaten. Diese seien eine wahre Goldgrube von Erkenntnissen für die betriebliche Effizienz.
Shells Vision datengetriebener Energiewirtschaft umspannt ein ganzes Ökosystem von Lösungsanbietern im Rahmen der Open AI Energy Initiative des Konzerns. Shell konnte für dieses Vorhaben im Juni 2021 den Inaugural Future of Digital Innovation Excellence Award von IDC einheimsen.
Die Open AI Energy Initiative entstand Anfang des Jahres 2021 aus der Initiative von Shell in Zusammenarbeit mit dem KI-Spezialisten C3.ai, einem Tochterunternehmen der GE-Gruppe namens Baker Hughes und Microsoft. Das Ziel bestehe darin, ein „einzigartiges offenes Ökosystem von KI-Lösungen für Unternehmen“ zu erschaffen, welches – datengetrieben – zur Transformation der Energiebranche beitragen soll. Es böte einen Rahmen für Stromversorger, Ausrüstungsanbieter, unabhängige Softwareschmieden und andere Dienstleister, um interoperable Lösungen für die Energiebranche zu entwickeln, von KIs über Computer-Simulationen physikalischer Phänomena, Überwachungsdienste bis hin zu Diagnose-Tools und anderen. Ein technologischen Unterbau für das Ökosystem bildet die BHC3 AI Suite von Baker Hughes; die Infrastruktur stellt (kostenpflichtig) Microsoft Azure bereit.
Bei der BHC3 AI Suite handelt es sich um eine Softwareplattform mit einer modellgesteuerten Architektur, welche die Komplexität der Entwicklung von KI-Anwendungen im Unternehmensmaßstab reduzieren soll. Unabhängige Studien sollen gezeigt haben, dass die modellgesteuerte Architektur von BHC3 den erforderlichen Softwarecode gegenüber konventionellen Ansätzen der „strukturierten Programmierung“ um 99 Prozent reduziert und den Aufwand für die Entwicklung und Bereitstellung von KI-Anwendungen um den Faktor 18 verringert.
Die zentralen Herausforderungen von DataOps
Die meisten Unternehmen leiden unter einer hohen Datenfragmentierung und einer schlechten Datenqualität; sie werden zudem auch von langsamen Entwicklungsprozessen geplagt. Eine Anfang des Jahres 2021 veröffentlichte IDC-Studie hat bestätigt, dass die Sicherstellung der Datenqualität sowie die Erfassung und Klassifizierung relevanter Daten datengetriebene Geschäftsmodelle in Deutschland ausbremsten.
Gute Datenqualität sei für zwei von fünf der Entscheider (37 Prozent) eine der größten Herausforderungen beim Datenmanagement. Zwar nutzten bereits knapp drei Viertel der Befragten eine abgestimmte Vorgehensweise bei der Datenintegration, allerdings meist nicht unternehmensweit. Genau darin sehen die IDC-Analysten den Knackpunkt, denn der Nutzen liege ja gerade beim Abbau sowohl von Funktions- als auch von Prozesssilos innerhalb des eigenen Fachbereichs und über Fachbereichsgrenzen hinweg.
Zwischen dem operativen Tagesgeschäft und dem IT-Betrieb besteht in vielen Organisationen ein erbitterter Wettbewerb um Ressourcen und darum, wer im Zweifelsfalle den Schwarzen Peter zugeschoben bekommt. Diese Sicht bestätigen auch die Analysten Ted Friedman und Robert Thanaraj vom Forschungsinstitut Gartner.
DataOps stellt einen Versuch dar, diese Konflikte aufzulösen und die Kluft etwa zwischen dem operativen Tagesgeschäft und dem IT-Betrieb zu schließen. DataOps soll die Beteiligten dazu befähigen, an einem Strang zu ziehen, statt Grabenkämpfe miteinander zu führen. Die Methodologie von DataOps soll die Datenanalyse-Teams in die Lage versetzen, automatisierungsfähige Datenpipelines (ggf. gemeinsam mit dem Dev-Team) aufzustellen und die unvermeidlichen Herausforderungen gemeinsam anzupacken.
Die gelebte Praxis ist davon jedoch vielerorts recht weit entfernt. Daten- und Analyseteams können die gewünschte Geschwindigkeit und Zuverlässigkeit der Projektabwicklung oft nicht erreichen, sei es, weil es zu viele Rollen gibt, oder weil es zu viel Komplexität zu meistern gilt und/oder weil ständig wechselnde Anforderungen dieses Ziel erschweren. Eine eingeschränkte oder inkonsistente Koordination zwischen den vielen Rollen im Rahmen einer DataOps-Initiative, die an der Erstellung, Bereitstellung und Pflege von Datenpipelines beteiligt sind, verschärft diese Komplexität noch zusätzlich.
Daten- und Analyseleiter haben oft Schwierigkeiten, das optimale Tempo der Veränderungen bei der Einführung neuer Techniken anzupeilen. Eine umfassende Neuausrichtung der Arbeitsprozesse kann sich insbesondere bei komplexen Projekten als zu störend erweisen.
Die Analysten von IDC beschwören die „Integration und Automatisierung“ sowie die „Nutzung moderner Tools über die gesamte Prozesskette und eine kontinuierliche Optimierung von Daten-Prozessen über alle IT- und Business-Domains hinweg“ als den Schlüssel zum Erfolg von DataOps. Doch gerade hier stellen sie auch Defizite fest. Die Resultate der IDC-Befragung hätten gezeigt, dass die meisten Unternehmen in Deutschland die Herausforderungen zwar in der Theorie durchaus erkannt hätten. Die Unternehmen müssten aber „an vielen Stellschrauben drehen, um für die Herausforderungen der digitalen Transformation gewappnet zu sein“ und ihre Daten „umfassend für Innovationen einsetzen zu können“. Automatisierung und Integration würden zwar von Entscheidern „immer wieder beschworen“, die Umsetzung hingegen ließe auf sich warten.
In der heutigen technisch herausfordernden Umgebung ist es tatsächlich wichtiger denn je, Daten in (nahezu) Echtzeit bereitzustellen und auszuwerten, um den Nutzwert datengetriebener Entscheidungen zu maximieren. Die wichtigste Möglichkeit, mit all den raschen Veränderungen im Unternehmensumfeld Schritt zu halten, bietet die Methodologie von DataOps.
Die zeitgemäße Analytik von Big Data erfordert die freie Bewegung von Daten in alle Ecken des Unternehmens. So kann die Organisation sicherstellen, dass die bestmöglichen Entscheidungen zeitnah gefällt werden. DataOps kann unter anderem helfen, in enger Abstimmung mit den eigenen Geschäftszielen zeitnah zu agieren.
Fazit
Durch die gezielte Einführung von DataOps-Techniken können die Big-Data-Verantwortlichen einen Wandel hin zu einer schnelleren, flexibleren und zuverlässigeren Bereitstellung von Datenpipelines vollbringen. DataOps hat das Potenzial, die Kluft zwischen verschiedenen Funktionsteams in Unternehmen zu überwinden und ihnen zu helfen, aus BigData handlungsfähige Anweisungen zeitnah zu gewinnen. Erst mit DataOps wechselt die digitale Transformation auf die Überholspur.
(ID:47546361)