Kommentar von Peter Küssner, Ginkgo Analytics Data Science as a Service – so entwickeln Unternehmen datengetriebene Geschäftsmodelle

Autor / Redakteur: Peter Küssner / Nico Litzel

Big Data, Analytics und Data Science sind Themen und Schlagworte, die Unternehmen und deren Führungskräfte schon seit mehreren Jahren beschäftigen. Kein Tag vergeht, an dem Politik, Verbände, Institute und Berater nicht auf die Notwendigkeit hinweisen, sich dieser Themen anzunehmen.

Firmen zum Thema

Der Autor: Peter Küssner ist GF und Partner Ginkgo Analytics
Der Autor: Peter Küssner ist GF und Partner Ginkgo Analytics
(Bild: Andreas J. Focke https://businessportraits-muenchen.de/)

Zu Beginn jedes großen Trends sind es vor allem Forschungseinrichtungen und Großunternehmen, welche die Grundlagenarbeit leisten. Dort werden mit Steuergeldern und Forschungsbudgets Lehrgelder bezahlt, die für das „Otto-Normal-Unternehmen“ nicht finanzierbar sind. Hier stehen Kapazitätsmangel und daraus folgende Engpassverwaltung auf der Tagesordnung – und das sowohl quantitativ als auch qualitativ. Die Anzahl der Mitarbeiter ist an den Bedarfen der Kunden und deren Aufträgen orientiert. Nur selten findet sich dort überschüssige Kapazitäten. Doch die qualitative Knappheit ist wesentlich dramatischer.

Die zumeist langjährigen Mitarbeiter sind in den Tagesabläufen und der dazu vorhandenen Software geschult und trainiert. Ihre Kenntnisse stammen aus der Materialwirtschaft, Produktionsplanung, und Finanzbuchhaltung, während die IT sich um deren Betrieb und die stetig wachsenden Anforderungen an die Infrastruktur kümmert. Gerade in Zeiten von COVID-19 konnte man erkennen, wie viele Unternehmen unzureichend auf das digitale Arbeiten vorbreitet waren.

Was also tun, wenn es um Disruption, Design Thinking, Predictions und Künstliche Intelligenz geht? Wenn Führungskräfte erkennen müssen, dass sie aufgrund unzureichend vorhandener Kapazitäten Umsatzpotenziale nicht erschließen oder Kostensenkungspotenziale nicht realisieren können?

Es ist nicht die Frage ob, sondern wie

Der Aufbau von Personal, dabei auch noch größtenteils von „Spezialisten“, die zunächst nicht „für den Kunden oder Umsatz“ arbeiten, wird auf den Führungsetagen argwöhnisch betrachtet. Zu groß ist der Kostendruck. Businesspläne und Return-on Investment-Berechnungen müssen zuerst rein rechnerisch die Notwendigkeit und den Nutzen beweisen. Doch wer kann heutzutage schon mit Sicherheit sagen was in sechs bis zwölf Monaten passiert? Und wenn die Genehmigung für den Kapazitätsaufbau erteilt wurde, wie kann eine Personalabteilung, die bis zu diesem Zeitpunkt nur vertrautes Personal mit bekannten Fähigkeiten beworben hat, den Kampf um diese jungen Talente gewinnen? Der Wettbewerb mit Großunternehmen und spezialisierten Beratungen ist groß, vielleicht zu groß.

Fakt ist: Data Science und Künstliche Intelligenz werden das Leben weit über betriebliche Prozesse hinaus beeinflussen. Es geht also im Wesentlichen darum, wie Chancen ergriffen und dabei Risiken minimiert werden können.

As-a-Service-Modelle sind vom Grundsatz her exakt auf diese Konstellation ausgelegt. Es geht um die temporäre Zurverfügungstellung bzw. das Outsourcing von Personal sowie einer IT- und technischen Infrastruktur, um entweder einen mengenmäßigen Engpass zu kompensieren oder aber ein Spezialisten-Know-how zur Evaluation oder Lösung eines Problems zur Verfügung zu stellen.

Bewährte Methoden helfen

Bereits Ende 1996 wurde – seitens der EU gefördert – ein branchenübergreifender Standard-Prozess unter der wesentlichen Mitwirkung von DaimlerChrysler, SPSS und NCR entwickelt. Das CRISP Data Mining Modell (Cross Industry Standard Process) besteht aus sechs Phasen und gilt seitdem als die Vorlage für Data-Science-Projekte. Dieser sogenannte „Standard Data Mining Prozess“ wurde entwickelt, um die erforderliche Arbeitsteilung zu strukturieren und deckt alle Phasen, die einerseits zur technischen Machbarkeit und anderseits zur Bestimmung der Wirtschaftlichkeit notwendig sind, ab. Er besteht aus den Phasen „Business Understanding“, „Data Understanding“, „Data Preparation“, „Modeling“, „Evaluation“ und „Deployment“. Es geht also darum, den Anwendungsfalls, einen sogenannten Use Case, über die Daten zu verstehen, die Daten vorzubereiten, das Problem in einem mathematischen Model zu lösen und zu überprüfen, ob es auch operationalisiert, also produktiv eingesetzt werden kann.

Dieser Prozess wird von vielen Unternehmen erfolgreich eingesetzt, teils in ähnlichen Varianten, in denen er oft auch als Data Science Prozess definiert ist. Dabei wird er immer im Rahmen eines PoC (Proof of Concept) realisiert.

Die Phasen des CRISP-DM-Frameworks
Die Phasen des CRISP-DM-Frameworks
(Bild: Ginkgo Analytics)

Die sechs Phasen des Modells bauen aufeinander auf und sind von dem Ergebnis des jeweiligen vorangehenden Schrittes abhängig. Sie bedeuten konkret:

  • 1. In der ersten Phase des Business Understanding geht es nicht nur um das Verständnis des Problems, sondern viel mehr auch um die Definition der damit verbundenen Ziele und der Erfüllung des Nutzens.
  • 2. Im Rahmen des Data Understanding ist es wichtig, sich einen Überblick über die zur Verfügung stehenden Datenquellen und Daten sowie deren Verarbeitbarkeit und Qualität zu verschaffen.
  • 3. Die Data Preparation dient dazu, durch die Auswahl (auch das Bereinigen) und das Zusammenführen von Daten fehlerfreie Datensätze zu erstellen. Hierbei spielt das Feature Engineering, also das Umwandeln von Rohdaten in Variablen oder numerische Werte, eine große Rolle.
  • 4. Der Kern des CRISP-Modells ist das Modeling, also die mathematische bzw. statistische Auswertung der Daten (maschinelles Lernen), um Muster aufzuzeigen und/oder Vorhersagen zu erstellen.
  • 5. In der Evaluation-Phase muss hinsichtlich der möglichen weiteren technischen Optimierung und des definierten Nutzens entschieden werden, ob eine Operationalisierung bzw. eine produktive Umsetzung erfolgen soll.
  • 6. Die letzte Phase und im Grunde nach ein eigenes für sich stehendes und zu planendes Projekt ist das Deployment. Damit ist die Implementierung des Modells in die bestehende IT-Infrastruktur und betrieblichen Prozesse gemeint.

Vielfältigkeit der Anforderungen als Herausforderung

Natürlich werden für jede dieser beschriebenen Phasen unterschiedliche Qualifikationen und je nach Größe eines Projektes eine höhere Anzahl an Personen benötigt. Folgende Übersicht zeigt exemplarisch die Vielfalt, kann aber nur andeuten, wie sich die Aufgaben voneinander differenzieren.

Phasen und Rollen im Überblick
Phasen und Rollen im Überblick
(Bild: Ginkgo Analytics)

Technische und organisatorische Einflussfaktoren

Auf der technologischen Seite steht inzwischen eine Vielzahl von Systemen, Anbietern und Verfahren zur Verfügung. Vor allem im Bereich Machine Learning, also dem eigentlichen KI-Teil, gibt es inzwischen eine Vielfalt von Anwendungen, sodass auch hier von einer notwendigen Spezialisierung gesprochen werden muss.

Doch sei es nun NLP (Natural Language Processing), die Bilderkennung, Vorhersagen oder die Anomalie-Erkennung: Ohne das richtig ausgebildete und erfahrene Personal sind die Erfolgsaussichten gering. Zudem muss berücksichtigt werden, dass die jeweiligen Kapazitäten mit einem Projekt nur teilweise ausgelastet sind und die Einsatzmöglichkeiten dieser Kapazitäten voneinander abhängig sind und aufeinander aufbauen.

Ist also zum Beispiel das Ergebnis der Data Preparation unbefriedigend und muss mehrfach durch den Data Engineer wiederholt und optimiert werden, kann der Machine Learning Engineer mit seiner Arbeit nicht beginnen. Oder stellt sich nach dem Data Understanding heraus, dass die vorhandenen Daten heterogen und weit verteilt sind und dabei noch eine sehr geringe Datenqualität ausweisen, kann ein einzelner Data Engineer die Aufgabe schlecht oder nur in einer unbefriedigenden Zeit lösen.

Natürlich kann ein erfahrener Data Scientist all diese Prozessschritte auch allein bearbeiten. Doch kann ein solch hochqualifizierter Mitarbeiter überhaupt gewonnen und anschließend auch adäquat ausgelastet werden? In der Praxis erwarten diese Mitarbeiter technisch anspruchsvolle und wechselnde Aufgaben. Aufgrund dieser potenziellen Unterforderung kann schnell eine Unzufriedenheit entstehen.

Und wie geht es dann? Mehr Effizienz durch DSaaS

Wenn es im beschriebenen Kontext darum geht Entscheidungen unter mehrdimensionalen Kriterien wie Zeitpunkt, Menge, Kosten und Kompetenz zu treffen, kann DSaaS einen essenziellen Beitrag leisten. Ob Data Analyst, Data Engineer, Machine Learning Engineer oder der übergreifend arbeitende Data Scientist: Durch DSaaS werden die jeweiligen Kompetenzen zum richtigen Zeitpunkt in jeweils richtiger Anzahl mit vorher definierten Zielen und verbundenen Kosten eingesetzt. Und das unabhängig davon, ob es darum geht Risiken zu minimieren, Geschwindigkeit zu erhöhen, Engpässe zu überwinden oder gar neue Methoden auszuprobieren.

Das gilt gleichermaßen für Unternehmen, die bereits Erfahrungen gesammelt haben als auch für solche, die gerade erst anfangen sich mit Data Science zu beschäftigen. Denn egal ob ich ein bestehendes Team unterstützen lasse oder erste Data Science Projekte starte – der Erfolg der Projekte wird durch DSaaS letzzlich auf jeden Fall ein Stück wahrscheinlicher.

Artikelfiles und Artikellinks

(ID:47398277)