Sinnvolle Innovation oder überbewertete Investition Was an den Vorbehalten gegen die Cloud wirklich dran ist
Anbieter zum Thema
Angesichts der sich häufenden, unvorhergesehenen Krisen bleibt die Cloud auch weiterhin ein wichtiger Investitionsschwerpunkt für Unternehmen. Nur wer in der Lage ist, interne und externe Informationen zu integrieren und für Analysen zu nutzen, hat die Chance, Risiken frühzeitig zu erkennen und entsprechende Präventivmaßnahmen zu ergreifen.

Längst lässt sich die Cloud nicht nur zur skalierbaren Speicherung von Unternehmensdaten verwenden, auch für die Erstellung von Analysen, Berichten und tieferen Erkenntnissen kann man sich auf ihre Vorteile verlassen. Auf diese Weise lässt sich nicht nur der normale Geschäftsbetrieb fortführen – auch etwaige Risiken können frühzeitig erkannt und entsprechende Präventivmaßnahmen eingeleitet werden. Am Ende ist es genau dieser Weitblick, der für Unternehmen einen erheblichen Wettbewerbsvorteil darstellt.
In der Praxis gehen die Vorstellungen, welche Anforderungen im Fokus stehen sollten, allerdings weit auseinander: Während die Fachabteilungen sich nach skalierbaren und agilen Lösungen sehnen, auf die sie schnell zugreifen können, um ihre Aufgaben effizienter zu erledigen, hegen IT-Verantwortliche Bedenken, was zum Beispiel die Einhaltung von Governance- und Compliance-Vorgaben betrifft, um Datenbestände schützen zu können. All dies kann den Zugang zu Daten drastisch einschränken und die Datenqualität verringern – genau dies ist jedoch essenziell, damit Anwender moderne Technologien zur effizienten Datenanalyse einsetzen können. Doch sind diese Vorbehalte wirklich berechtigt und wie können Unternehmen sie aus dem Weg räumen, um das volle Potenzial der Cloud auszuschöpfen?
Wenn die Stärken der Cloud zu ihrer größten Schwäche werden
97 Prozent – und damit ein Großteil der deutschen Unternehmen – nutzen Cloud-Lösungen bereits standardmäßig oder überlegen zumindest, dies in naher Zukunft zu tun. Ergeben hat das der aktuelle Cloud-Monitor von Bitkom und KPMG, der dadurch belegt, dass die Cloud aus der deutschen Wirtschaft nicht mehr wegzudenken ist. Doch während Gartner prognostiziert, dass bis 2026 stolze 45 Prozent der Investitionen in die Public Cloud fließen werden, haben in Deutschland noch immer Private Cloud-Lösungen die Nase vorn – und genau hier liegt hinsichtlich vieler bestehender Hürden der Hase im Pfeffer.
Bei einer Private Cloud handelt es sich nämlich um eine bedarfsorientierte Infrastruktur, die Eigentum des jeweiligen Unternehmens ist. IT-Experten tendieren nicht selten zu einer solchen Lösung, weil sie bestrebt sind, regulatorische oder Governance-Auflagen einzuhalten. Tatsächlich scheitern sie aber oft genau daran, weil sich die Wartung einer Private Cloud als extrem zeitintensiv herausstellt. Bleiben sie hier aber nicht ständig am Ball, kann im schlimmsten Fall nicht nur die Datenqualität, sondern auch deren Sicherheit leiden.
Unabhängig von der Branche, erzeugt jedes Unternehmen inzwischen täglich Massen an Daten, die aus den unterschiedlichsten Quellen integriert werden müssen. Durch Websites und Apps, mit denen potenzielle Kunden während des Kaufprozesses interagieren, werden genauso neue Informationen generiert wie durch IoT-Geräte und Sensoren, die sowohl Fertigungs- und Lieferkettenprozesse als auch die Wartung von Rolltreppen tracken können – und es kommen ständig weitere Quellen hinzu.
Ohne Cloud-Lösungen wäre es kaum möglich, diese Unmengen an Daten zu bewältigen. Werden diese jedoch in Silos gehortet, ohne ein genaues Ziel zu formulieren, kann sich der größte Vorteil der Cloud, der im günstigen Speichern großer Datenmassen liegt, zu einem ernstzunehmenden Problem entwickeln. All dies behindert den Datenfluss und bremst die Effektivität der datengestützten Echtzeit-Entscheidungsfindung, die für die langfristige Rentabilität des Unternehmens erforderlich ist.
Wunsch und Wirklichkeit klaffen noch immer weit auseinander
Häufig begreifen Unternehmen in Deutschland die Cloud als eine Art Aktenschrank, mit dessen Hilfe es möglich ist, große Datenmengen bequemer anzusammeln, als es mit On-Premises-Lösungen bisher der Fall war. Wenn sie im internationalen Vergleich nicht hinterherhinken wollen, ist es jedoch höchste Zeit, etwas an dieser Einstellung zu ändern.
Die Zahl neuer und potenziell unerwarteter Disruptionen, die in den vergangenen zwei Jahren stark zugenommen hat, macht es umso notwendiger, neue Ansätze zu finden, um die Agilität und Widerstandsfähigkeit der Unternehmen zu erhöhen. Doch noch immer treten viele Geschäftsführer auf der Stelle. Wenn die vergangenen zwei Jahre eines gezeigt haben, dann, dass der Zugang zu historischen Trenddaten entscheidend ist, um zu analysieren und zu modellieren, was in Zukunft passieren könnte, um wahrscheinliche Risiken zu identifizieren und um mögliche Chancen und Maßnahmen zur Verbesserung der zukünftigen Agilität vorzuschreiben.
Dies wird unter anderem durch eine IDC-Studie belegt, die Alteryx in Auftrag gab: Hier stellte sich heraus, dass schon heute von 62 Prozent der Fachkräfte erwartet wird, auf der Grundlage von Daten agile und skalierbare Entscheidungen treffen zu können – im mittleren bis höheren Positionen wird diese Anforderung sogar an 75 Prozent der Mitarbeiter gestellt. Leider fehlt es aber noch immer vielen an den nötigen Tools und Fachkenntnissen, um diese Anforderung in die Tat umzusetzen. Gleichzeitig wächst der Druck auf die Experten, die bereits über eine ausreichende Datenkompetenz verfügen. Von ihnen wird erwartet, dass sie innerhalb kürzester Zeit präzise Analysen durchführen, die für das Unternehmen einen echten Mehrwert generiert – dabei sind sie häufig eher damit beschäftigt, den großen Datenmengen Herr zu werden.
Damit Unternehmen das Potenzial der Cloud voll ausschöpfen können, muss diese Diskrepanz so schnell wie möglich behoben werden. Denn die größte Chance für die Cloud liegt in der Kombination von zwei Dingen: Das sind die Cloud-basierten analytischen Modernisierungsinitiativen, um mehr Mitarbeitern einen einfacheren und schnelleren Zugang zu zuverlässigeren Daten zu ermöglichen, auf der einen Seite. Und die Bereitstellung von zugänglichen Analysen durch einfach bedienbare, No-Code/Low-Code-Technologien, um die flexible Gewinnung von Erkenntnissen zu ermöglichen, die für den Erfolg notwendig sind. Nur durch die volle Nutzung des Speichers und der enormen Rechenleistung, die in der Cloud verfügbar sind, werden mehr Mitarbeiter Zugang zu tieferen Einblicken haben. So können sie kritische Muster und Trends leichter erkennen – und zwar über alle Positionen und Abteilungen hinweg.
Cloud-basierte Datenanalysen als gemeinschaftlicher Prozess
Dass Gartner der Public Cloud auf internationaler Ebene einen echten Siegeszug voraussagt, kommt nicht von Ungefähr. Da hier externe Anbieter für die Instandhaltung der Infrastruktur zuständig sind, sinkt für Unternehmen der Arbeitsaufwand und damit auch das Risiko, potenzielle Sicherheitsrisiken zu übersehen. Außerdem lässt sich eine Public Cloud im Vergleich zur Private Cloud leichter skalieren und kann somit flexibel den sich ändernden Bedürfnissen eines Unternehmens angepasst werden. In der heutigen Geschäftswelt ist diese Flexibilität unerlässlich. Unternehmen müssen jederzeit damit rechnen, dass neue Disruptionen auftreten. Umso wichtiger wird es für sie, auf vertrauenswürdige Informationen zuzugreifen und schnelle Erkenntnisse daraus ableiten zu können.
Um das gewährleisten zu können, ist es wichtig, dass alle – und zwar von der IT über die Fachkräfte der einzelnen Abteilungen bis hin zu den Datenwissenschaftlern – an einem Strang ziehen. Ohne Mitarbeiter, die in der Lage sind, aus Rohdaten neue Erkenntnisse zu gewinnen, können Unternehmen nicht so umgestaltet werden, dass es ihnen gelingt, die Herausforderungen von heute zu bewältigen oder die von morgen vorherzusehen. Wenn Daten das Öl sind, das für die Gewinnung geschäftsrelevanter Erkenntnisse benötigt wird, dann sind datenkundige Mitarbeiter:innen die Maschine, die diesen Prozess antreibt. So werden Einblicke und Innovationen greifbar, die zuvor nicht einmal vorstellbar waren.
Letztlich werden sowohl Daten als auch deren Analyse durch Cloud-basierten Lösungen besser zugänglich. Dank einer schnelleren Ausführung und der einfachen Bedienbarkeit von browserbasierten Self-Service-Tools bekommen alle die Chance, Datenanalysen in den Mittelpunkt ihrer Entscheidungsfindung zu stellen. Damit das gelingen kann, müssen Unternehmen allerdings sicherstellen, dass die genutzten Daten stets aktuell und qualitativ hochwertig sind und aus den unterschiedlichsten Quellen stammen.
Dies erfordert einen kollaborativen Ansatz, bei dem alle eine gemeinsame Sprache der Daten sprechen. Nur so ist es möglich, dass Fachexperten mit der IT-Abteilung und der geringen Anzahl von Datenwissenschaftlern, die für das Training von Algorithmen und Modellen zur Verfügung stehen, effektiv zusammenarbeiten können, um sicherzustellen, dass Datenanalysen auf jeder Ebene stattfinden können. Letztlich sind es all diese Schritte, die zu einer robusteren Dateninfrastruktur führen.
* Der Autor Alan Jacobson ist Chief Data and Analytics Officer bei Alteryx.
(ID:48712677)