Vorhersagen von Quentin Gallivan, Pentaho

2016 ist Big Data auf dem Sprung zum Mainstream

| Autor / Redakteur: Quentin Gallivan / Nico Litzel

Quentin Gallivan, CEO von Pentaho
Quentin Gallivan, CEO von Pentaho (Bild: Pentaho)

2015 kreiste der Markt für Big Data vor allem um das Hadoop-Ökosystem. Es drehte sich alles darum, Big Data für den täglichen Einsatz fit zu machen und Anwendungsmöglichkeiten aufzuzeigen, die durch höhere Umsätze, bessere Produktivität und niedrigere Risiken, Return on Investment (ROI) generieren.

2016 wird Big Data den Sprung über die Schlucht zwischen Early Adoptern und Massenmarkt, wie es Geoffrey A. Moore in seinem Buch „Crossing the Chasm“ bespricht, fortsetzen. Mehr Mainstream-Anwender, darunter traditionell eher konservative und skeptische Unternehmen, werden dieses Jahr mit Big Data und IoT beginnen. Und damit zu meinen Vorhersagen

1. Big Data und Data Blending

Big Data im täglichen Einsatz und Data Blending, also das Verknüpfen unterschiedlicher Datensätze, werden weitaus wichtiger, als wir es uns 2010 bei unseren Anfängen mit Hadoop vorstellen konnten. In dem Maße, in dem Unternehmen und die Gesellschaft mit großen und systemischen Sicherheits-, Umwelt-, Gesundheits- und Wirtschaftsproblemen konfrontiert werden, wird eine Plattform, die unstrukturierte und relationale Daten miteinander verknüpft, zu einem unverzichtbaren Universalwerkzeug.

2016 wird sich die Nachfrage nach solchen Lösungen durch mehr Raffinesse auszeichnen. Zum Beispiel wird von Onlinehändlern zunehmend erwartet werden, dass sie ihren Kunden zum richtigen Zeitpunkt und auf dem richtigen Gerät personalisierte Empfehlungen anbieten, die gleichzeitig von sicheren E-Commerce-Transaktionen unterstützt werden. Das Potenzial von Data Blending für Automobil-Telemetrie, Medizin oder Nationale Sicherheit ist enorm – und wir sind erst am Anfang.

2. Das Internet of Things (IoT) wird Realität

Eine Studie des McKinsey Global Institute schätzt, dass das „Internet der Dinge“ 2025 weltweit zwischen 3,9 bis zu 11 Billionen US-Dollar Mehrwert schaffen kann. Zu den Anwendungsfällen, die diese Transformation anführen, gehören vorausschauende Instandhaltung, Smart Cities und Smart Homes. Große Industrieunternehmen produzieren, bewegen, verkaufen und unterstützen physische Dinge, die durch Sensoren mit dem Internet verbunden werden. Daraus ergeben sich unzählige Herausforderungen und Möglichkeiten, was Data Governance, Standards, Gesundheit, Sicherheit und Lieferketten, um nur einige zu nennen, angeht. Diese Unternehmen müssen jetzt mit der Planung beginnen, oder sie riskieren es, außen vor zu bleiben.

3. Embedded Business Analytics

Die nächste Business-Analytics-Generation wird eingebettet innerhalb von Anwendungen genutzt. Laut einer Umfrage des Analystenhauses Ventana Research sehen IT-Führungskräfte Business Analytics als strategische Voraussetzung für Umsatzwachstum, Kostenreduzierung und Unternehmensproduktivität. Während das klassische BI-Modell, bei dem ein Datenanalyst eine BI-Lösung außerhalb der Unternehmenssoftware nutzt, um historische Daten zu analysieren, als bedingt hilfreich eingestuft wird, wird die nächste Business-Analytics-Generation, bei der die Daten innerhalb der Unternehmenssoftware analysiert werden können, als erfolgskritisch eingeschätzt. Echtzeitanalyse sowie das Verknüpfen von unstrukturierten und strukturierten Daten innerhalb von Unternehmenssoftware schafft die Grundlage für Anwendungen wie eine 360-Grad-Kundenansicht, IoT, Supply Chain Management, Sicherheit und Betrugsprävention.

4. Tools haben ihren großen Auftritt

Die vielen neuen coolen Tools wie Spark, Docker, Kafka, Solr – Open-Source-Lösungen, die die Analyse von Daten im Petabyte-Bereich ermöglichen – mausern sich vom „unbeholfenen Teenie“ zum „bärtigen Hipster“. Diese Open-Source-Lösungen sind wichtig für Innovationen und auch ausgreift genug, um von Unternehmenskunden genutzt zu werden. Anfang 2015 hatten wir die Integration mit Spark angekündigt. Für 2016 freuen wir uns auf weitere Ankündigungen dieser Art.

5. Die Cloud wird bevorzugtes Implementationsmodell für Big Data

Die letzte Sitzung unseres strategischen Beratungsgremiums hat gezeigt, dass fast alle Mitglieder ihre Big-Data-Anwendungen entweder bereits in der Cloud nutzen oder dies für die Zukunft planen. Dazu gehört die US-Finanzaufsicht FINRA, die innerhalb einer hochsicheren Umgebung 75 Milliarden Events täglich verarbeitet. Trotzdem wollen Unternehmen verschiedene Optionen für die Implementation von Big Data: hinter einer Firewall, 100 Prozent in der Cloud oder in einer hybriden privaten/öffentlichen Cloud-Umgebung.

6. User Experience

Innerhalb des Big-Data-Ökosystems wird das Benutzererlebnis zu einem wichtigen Investitionsbereich. Das beginnt mit der Cloud und setzt sich fort über Streaming hin zu prognostischen Analysen. Dabei wird es auch darum gehen, neue sichere Technologien wie Gesichtserkennung zu integrieren, um Datensicherheit und -zuverlässigkeit zu garantieren. Echtzeit wird ein wichtiger Bereich für das Benutzererlebnis. Wir hören von unseren Kunden häufig, dass Hadoop noch zu schwierig ist und dass sie hoffen, dass Hersteller hier investieren und die Handhabung vereinfachen werden. Je einfacher die Nutzung von Hadoop, desto mehr Anwendungsbereiche ergeben sich für Unternehmen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43807414 / Analytics)