Nachbericht zum BI Summit von Gartner

Neue Datenanalysemethoden sind aus der Hype-Phase

| Autor / Redakteur: Ariane Rüdiger / Nico Litzel

„Hinsichtlich neuer Analysemethoden sind wir wie Zauberlehrlinge: Wir haben unsere Werkzeuge nicht mehr unter Kontrolle“, warnte Gartner-Analyst Frank Butendijk anlässlich des Gartner-Summits zu BI und Analytics in München.
„Hinsichtlich neuer Analysemethoden sind wir wie Zauberlehrlinge: Wir haben unsere Werkzeuge nicht mehr unter Kontrolle“, warnte Gartner-Analyst Frank Butendijk anlässlich des Gartner-Summits zu BI und Analytics in München. (Bild: Ariane Rüdiger)

Auf dem Gartner-Summit zum Thema Business Intelligence (BI) zeigte sich, dass die Phase der überschäumenden Begeisterung für neuartige Methoden der Datenanalyse zu Ende geht und einer realistischeren Einschätzung weicht. In den Vordergrund rückt die Entwicklung tragfähiger Geschäftsmodelle.

Rund die Hälfte des 30-köpfigen BI-Analystenteams von Gartner ist zum BI- und Analytics-Summit nach München angereist, um dem dem Publikum aktuelle Informationen zu den Trendthemen zu präsentieren, die sich nun im Markt durchsetzen. „73 Prozent der Anwender, die wir befragt haben, investieren bereits in Big Data“, berichtete Neil Chandler, einer der Analysten. Das könne zu einer Vervierfachung des Umsatzes führen.

Gartner nannte diverse Beispiele für sinnvolle Anwendungen. So spart UPS durch eine intelligente Routenoptimierung pro Tag und Fahrer zehn Meilen ein. „Eine Meile pro Fahrer bedeutet 50 Millionen Dollar Einsparung jährlich bei besseren SLAs“, berichtete Gartner-Analystin Rita Sallam.

Jährlich 13 bis 14 Prozent Zuwachs

Philipps entwickelte ein intelligentes LED mit steuerbarer Lichtfarbe, das auf dem Markt sehr erfolgreich ist. Die britische Einzelhandelskette Tesco spart 20 Prozent Energie durch intelligente Thermostate an den Kühleinrichtungen. Das Segment Advanced Analytics wächst denn auch mit 13 bis 14 Prozent jährlich bei einem weltweiten Volumen von rund einer Milliarde US-Dollar.

Hohes einstelliges Wachstum verzeichnet das Segment Data Discovery, das Gartner auf etwa vier Milliarden US-Dollar weltweiten Umsatz schätzt. Die Werkzeuge von Unternehmen wie Qlik, Tableau oder Tibco gestatten es jedem Endanwender, auch ohne IT-Fachwissen, innerhalb weniger Minuten per Klick und Drag-and-drop individuelle, aus vielfältigen Datenquellen gespeiste, detaillierte Analysen am Bildschirm umzusetzen, deren Ergebnisse ansprechend visualisiert werden.

Allerdings gibt es jede Menge datengetriebene Geschäftsmodelle, die wahrscheinlich vor allem der Anbieter und der begünstigte Kreis gut finden, nicht aber diejenigen, die am Ende mit schlechteren Konditionen vorlieb nehmen sollen – verhaltensbasierte Versicherungstarife im Gesundheitsbereich und die individuelle Preisfestsetzung für Güter etwa.

Wer übertreibt, dessen Ruf ist dahin

Immerhin scheint die Branche langsam zu realisieren, dass nicht jedes beliebige Maß an „Kundennähe“ von den Kunden auch gewünscht wird. „Wir gehen davon aus, dass rund ein Viertel der Firmen, die Kundendaten auswerten, Rufschädigungen erleiden werden, weil sie dabei zu weit gehen“, sagte Gartner-Analyst Frank Butendijk.

So geschehen etwa beim Smart TV des Herstellers LG, der nicht nur das Sehverhalten der Kunden registrierte, sondern gleich auch noch jeden ans Gerät gesteckten USB-Stick komplett auslas und die Daten an den Hersteller schickte. „Wir müssen im Stande sein, im richtigen Moment ,Halt‘ zu sagen“, forderte Butendijk von den Anwenderunternehmen. Den zu finden sei wegen der unklaren Grenzlinie zwischen tolerabel und inakzeptabel schwierig.

Datenmodelle werden oft nicht getestet

Doch nicht nur die Ethik kann datengetriebene Geschäftsmodelle behindern, auch schlechte Analysen bewirken dasselbe. Darauf wies Alexander Linden, Gartner-Spezialist für Advanced Analytics, hin: Modelle erforderten die Kreuzvalidierung mit mehreren unterschiedlichen Datensätzen und überhaupt umfangreiche Tests, um ihre Validität zu belegen. Ausreichende Tests unterblieben aber häufig. Linden: „Kreuzvalidierung hat beispielsweise SAS überhaupt erst seit kurzem implementiert.“

Auch die aktuelle Flut der Datenanalyse-Ausbildungen sieht Linden skeptisch: Data Scientists ohne weitere Berufserfahrung verfügten meist nicht über das nötige Fachwissen hinsichtlich eines Fachgebiets außerhalb der IT. Dieses aber sei unbedingt nötig, um zu erkennen, welche Daten und Fragen für den analysierten Sektor überhaupt relevant sind. Linden: „Eigentlich gehört Data Science in jedes Studienfach und schon in den Schulunterricht.“

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43023882 / Analytics)