Tabellenkalkulation bleibt im Einsatz Technologische Einschränkungen bremsen Datenanalysen

Von Martin Hensel

Laut einer aktuellen Studie von Alteryx und IDC setzt ein Großteil der weltweiten Unternehmen immer noch auf Tabellenkalkulation bei der Datenverarbeitung. Fast alle (95 Prozent) Unternehmen berichten gleichzeitig von Schwierigkeiten, Erkenntnisse aus der Datenmasse zu ziehen.

Anbieter zum Thema

Technologische Hürden bremsen Unternehmen bei Datenanalysen aus.
Technologische Hürden bremsen Unternehmen bei Datenanalysen aus.
(Bild: janjf93 / Pixabay )

Die Studie „Data and Analytics in a Digital-First World“ zeigt, dass weltweit etwa 62,4 Milliarden Arbeitsstunden im Jahr für Daten und Analysen verlorengehen. 95 Prozent der Firmen haben Probleme, aus ihren Daten Erkenntnisse zu ziehen. Dies sei vor allem auf Faktoren wie Komplexität, Einschränkungen, Qualifikationsdefizite und mangelnde Automatisierung zurückzuführen.

Gut zwei Drittel (70 Prozent) der Unternehmen gaben an, heute datengesteuerter als vor der Corona-Pandemie arbeiten zu wollen. 88 Prozent sehen sich aber immer noch mit technologischen Einschränkungen konfrontiert. Fast alle (95 Prozent) sehen sich außerstande, den Datenfluss einzudämmen und sind mit der Menge an Daten überfordert. Daten-affine Mitarbeiter verlieren nach eigenen Angaben jährlich rund 800 Arbeitsstunden, weil 61 Prozent ihrer Arbeit immer noch mit veralteten Tabellenkalkulationen durchgeführt werden muss. Zudem verbringen 27 Prozent ihre Zeit damit, dieselben oder ähnliche Arbeitsschritte jedes Mal nach der Aktualisierung einer Datenquelle zu wiederholen.

Mangelnde Kenntnisse, hohe Komplexität

Beim Know-how gibt es Nachholbedarf: 91 Prozent der Unternehmen berichten von lückenhaften Daten- und Analysekenntnissen. Fortgeschrittene Fähigkeiten fehlen dabei besonders – 44 Prozent vermissen Fachwissen zur beschreibenden und vorausschauenden Datenanalyse sowie zu Machine Learning. Dieser Wissensbedarf wird von der hohen Komplexität der Daten und Analysen unterstrichen. Datenexperten verarbeiten hochgradig dezentrale, vielfältige und dynamische Daten in großer Menge aus durchschnittlich vier einzelnen Quellen pro Analyse sowie 6,6 Millionen Datensätzen. Daraus stellen sie dann am Ende im Schnitt vier Analysen für die Nutzung bereit.

„Datenexperten erwarten heute, dass sie einen Großteil ihrer Zeit mit Data Science und der Anwendungsentwicklung verbringen und nicht mit simplen Vorbereitungs- und Analyseaufgaben“, erklärt Stewart Bond, Research Director, Data Integration and Data Intelligence Software von IDC. Qualifikationsengpässe und unzureichende Tool würden diesen Fortschritt verhindern. „Um erfolgreich zu sein, müssen Unternehmen die Demokratisierung von Daten und Analysen in den Vordergrund stellen. Das funktioniert nur, indem sie die richtigen Tools in die richtigen Hände geben – mit Lösungen, die eine einheitliche und automatisierte Datenvorbereitung und Analyse bieten“, so Bond.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47978484)