Kommentar von Wolfgang Kelz, Tibco Software 6 Analytics-Prognosen für das Jahr 2017

Autor / Redakteur: Wolfgang Kelz / Nico Litzel |

Analysetechnologien werden auch in Zukunft nichts von ihrer Aktualität einbüßen: Denn die Zunahme von Maschinendaten aus dem Internet der Dinge führt zu neuartigen Anforderungen, Erwartungen und Verwendungsarten.

Anbieter zum Thema

Der Autor: Wolfgang Kelz ist VP Solution Consulting EMEA bei Tibco Software
Der Autor: Wolfgang Kelz ist VP Solution Consulting EMEA bei Tibco Software
(Bild: Tibco Software)

2017 wird daher ein Jahr sein, in dem wir eine grundlegende Umgestaltung der Analytics-Landschaft beobachten werden können. Sechs Entwicklungstendenzen zeichnen sich dabei als maßgebliche Einflussfaktoren aus:

1. Insight-Plattformen sind das nächste große Thema im Analytics-Bereich

CEO/CIO/CFO haben von dem Hype um Analytics-Lösungen genug. Nachdem viel Geld in Analysetechnologien gepumpt wurde, wollen diese nun endlich handfeste Beweise für die Rentabilität ihrer Investitionen sehen. Dabei liegt das Problem meist nicht in mangelnden Erkenntnissen, sondern darin, diese Erkenntnisse zielgerichtet anzuwenden. Im Dezember 2016 veröffentlichten die Analysten von Forrester einen Bericht, indem sie mit den sogenannten Insight-Plattformen eine neue Produktkategorie identifizierten, die die Lücke zwischen den von Datenwissenschaftlern aufgedeckten Zusammenhängen und deren Umsetzung in konkrete Aktionen schließen soll. Insight-Plattformen verbinden visuelle, prädiktive und Streaming-Analysefunktionen zu einem in sich geschlossenen System, mit dem sich analytische Erkenntnisse schnell und einfach in effektive Handlungen umsetzen lassen. Obwohl die neuen Plattformen, anders als etablierte Analyselösungen, noch in den Kinderschuhen stecken, dürfte im Jahresverlauf mit zunehmend reiferen Lösungen zu rechnen sein.

2. Unabhängige Datenaufbereiter gehen schweren Zeiten entgegen

Schätzungsweise 80 Prozent des Analytics-Aufwands werden zur Datenaufbereitung vergeudet. Entsprechend viele (genau: 42) Anbieter für Datenaufbereitungstool sind in den letzten Jahren aus dem Boden geschossen, von denen Alteryx, Trifacta und Paxata am bekanntesten sein dürften. Auch wenn diese Unternehmen eine Reihe von interessanten Neuerungen auf den Markt gebracht haben, wird ihnen vermutlich kein langes Leben beschieden sein, da deren Mehrwert durch die zusätzliche Komplexität für den Analytics-Lebenszyklus neutralisiert wird. Ihre Kunden realisieren allmählich, dass sie sich mit jedem neuen Datenaufbereitungstool (und die meisten Unternehmen verfügen bereits über eine ETL-Lösung) nur eine weitere Hürde in den Weg legen. Dieses Jahr werden Analytics-Anbieter leistungsfähige Funktionen für die Datenaufbereitung, häufig auch „Data Wrangling“ genannt, in bewährte Lösungen einbetten und damit sowohl die Notwendigkeit eines Drittanbieterprodukts als auch die lästige Trennung zwischen Datenaufbereitung und Datenanalyse aufheben. Die sture Durchführung der immer gleichen Arbeitsabläufe im Analyseworkflow gehört dann der Vergangenheit an.

3. IoT-Analytics-Neustart durchbricht die Geschwindigkeitsbarriere

Das Internet der Dinge tritt aus der Hype- in die Mainstream-Phase ein, damit einhergehend wird eine Veränderung notwendig, um den Umstieg von der Analyse von „Data at Rest“ zur Analyse von „Data in Motion“ zu vollziehen. Für die gigantischen Mengen an Sensordaten müssen ausgefeilte Tools entwickelt werden, während die resultierenden Predictive Execution-Modelle in der Lage sein müssen, die Datenströme in einer Geschwindigkeit zu verarbeiten, die nicht mehr der Mensch-Maschine-Interaktion, sondern der Interaktion zwischen Maschinen entspricht. So benötigen statistische Modelle in der Programmiersprache R üblicherweise einige Hundert Millisekunden pro Prüfung. In einer Sekunde werden so nur wenige Prüfungen durchgeführt („menschliche“ Verarbeitungsgeschwindigkeit). Dagegen müssen Streamingsysteme ihre Modelle oft 10-, 100- oder gar 10.000-fach häufiger pro Sekunde prüfen, als dies mit R möglich ist. Aus genau diesem Grund setzen IoT-Analysesysteme auf In-Memory-Ausführung und große Speichergruppen, die Modelle mit Durchsatzraten von bis zu 50.000 Prüfungen pro Knoten verarbeiten können. Da eine derart schnelle Modellausführung ihre Möglichkeiten sprengt, sind ältere Technologien für die neue IoT-Architektur nicht geeignet.

4. Streaming-Analytics-Anbieter verlagern ihre Angebote in die Cloud und nehmen Fahrt auf

Streaming-Analytics wird dieses Jahr ein heißes, wenn auch kein neues Thema sein. Schließlich entstanden erste Ansätze für die Analyse von Echtzeit-Datenströmen bereits um das Jahr 2000 am MIT in Stanford und an der Cambridge University. Die damalige Grundlagenarbeit resultierte in kommerziell erfolgreichen Produkten wie das von der Software AG zugekaufte Apama oder von TIBCO entwickelte BusinessEvents und StreamBase. In jüngster Zeit brachte die Open-Source-Community neuartige Technologien hervor, die alle Vorteile der Cloud nutzen und explizit als ePaaS-Lösung (enterprise Platform as a Service) konzipiert sind. 2017 werden einige der großen kommerziellen Streaming-Analytics-Akteure mit neu entwickelten Architekturen in der Cloud starten. Diese Entwicklung und die steigende Nachfrage nach Streaming, IoT-Analyse und Insight-Plattformen werden zu einem starken Wachstum des Marktsegments führen.

5. Spark übertrumpft Hadoop bei Streaming-Anwendungen und IoT

Die Zukunft der Informationstechnologie liegt in Big Data, aber auch im Internet der Dinge und in der Übertragung großer Datenmengen in Echtzeit. Während Spark für Streaming-Anwendungen gut geeignet ist, trifft dies auf Hadoop nicht zu. In der Folge wird Spark im Big-Data-Bereich gegenüber Hadoop weiter an Boden gewinnen, dabei jedoch auf Erweiterungen setzen, die eine einfache Anbindung an Streaming-Plattformen ermöglichen. Hierfür werden Erweiterungspunkte für Enterprise-Streamingplattformen und die Integration mit diesen Plattformen benötigt, einschließlich nativer Unterstützung von AVRO, H20, PMML, SparkML und Kafka.

6. Die Datenwissenschaft kommt auf den Lehrplan

Das Management-Magazin Harvard Business Review bezeichnet den Beruf eines Data Scientist als attraktivsten Job des 21. Jahrhunderts. Datenwissenschaftler, Hybride aus BWLern, Mathematikern und Informatikern, verdienen auch in Deutschland sehr gut. Demnach liegt das Gehalt für Berufseinsteiger zwischen 45.000 und 48.000 Euro, mit Berufserfahrung kommen Datenwissenschaftler auch schnell mal auf 140.000 Euro und mehr Jahresgehalt. Trotz der ausgesprochen guten Verdienstmöglichkeiten suchen deutsche Firmen händeringend nach qualifiziertem Personal. In den USA könnten 2018 laut McKinsey & Company 190.000 Data-Science-Stellen unbesetzt bleiben. Der Grund: Nur wenige Hochschulen haben das Fach auf dem Lehrplan. In Deutschland zählt die Technische Universität Dortmund zu den wenigen Hochschulen mit diesem zukunftsorientieren Fach. Dort bieten die Fakultäten Informatik, Statistik und Mathematik gemeinsam den Masterstudiengang Datenwissenschaft an. Auch die Münchner Ludwig-Maximilian-Universität hat seit dem Wintersemester 2016/17 Data Science als Masterstudiengang im Angebot. Es gibt noch einige Weiterbildungen, Workshops und Seminare in diesem Bereich, jedoch wird das bisherige Bildungsangebot die Know-how-Lücke nicht ausreichend schließen können. 2017 wird daher sicherlich das Jahr, in dem weitere Universitäten nachziehen werden.

(ID:44602728)