Big-Data-Prognosen von Quentin Gallivan, Pentaho Bereiten Sie sich 2017 auf das Unerwartete vor!
Nein, mein Computer wurde nicht gehackt. Die Wahrheit ist schlichtweg, dass ich nicht mit Gewissheit vorhersagen kann, was das Jahr 2017 uns bringen wird. In diesem Jahr hat Großbritannien darüber abgestimmt, die EU zu verlassen und die USA hat Donald Trump entgegen aller Umfrageergebnisse zum Präsidenten gewählt. Die Ursache, warum uns diese Ereignisse überraschen, liegt auch am Umgang mit Daten. Die Demoskopen hatten zwar Zugang zu großen, diversen Datensätzen, verließen sich aber zu sehr auf veraltete Methoden.
Anbieter zum Thema

Der größte Fehler dabei war sicherlich Sentiment, also die Stimmungen, nicht ausreichend zu berücksichtigen, vor allem in den ländlichen Gebieten. Die Tatsache, dass Regierungen auf beiden Seiten des Atlantiks von dem gleichen Datenproblem überrascht wurden, bedeutete auch, dass es keine angemessenen Übergangspläne gab.
In der gleichen Art und Weise, wie Regierungen diese unmodernen Umfragemethoden nicht mehr nutzen sollten, sollten auch Unternehmen keine unzeitgemäße Datenanalyse mehr einsetzen. Ich bin täglich mit Firmen im Gespräch, die ihre Unternehmensdaten mit Stimmungs-, Standort- und Sensor-Daten verknüpfen, um durch besseren Einblick den Umsatz anzukurbeln, eine 360-Grad-Sicht der Kunden zu erhalten, Risiken zu vermindern und effizienter zu arbeiten. In dem Maße, in dem Big Data durch Sensor- und Geräte-Daten noch größer wird, wachsen auch IoT und Big Data stärker zusammen. Auf Unternehmensseite lässt sich beobachten, wie die Lücke zwischen innovativen Unternehmen, die diese Daten-Herausforderung annehmen und denen, die eher abwarten, stetig wächst.
Während nächstes Jahr bestimmt noch so einige Überraschungen auf uns warten, bin ich doch zuversichtlich genug, fünf Vorhersagen zu wagen, wie sich Big Data und IoT entwickeln werden und uns durch diese unsicheren Zeiten helfen können:
1. Self-Service-Datenvorbereitung erschließt den vollen Wert von Big Data
Organisationen, die moderne Big-Data-Implementierungen, etwa zur Vorhersage von Wahlergebnissen oder Konsumentenstimmungen, aufbauen, haben ihre Schwierigkeiten mit der großen Menge an unterschiedlichen Daten. Die Zeit, die nur für die Datenvorbereitung allein benötigt wird, ist enorm und liegt oftmals zwischen 50 bis 70 Prozent. Die erwähnten Stimmungsdaten verschärfen das Problem noch, da kontinuierlich Daten aus sozialen Netzwerken eingespeist und für die Analyse vorbereitet werden müssen. Visualisierungs-Lösungen, mit denen sich die Daten nur ganz am Ende der Datenpipeline analysieren lassen, werden an Bedeutung verlieren. In 2017 werden mehr Software-Anbieter die Lücke zwischen Datenvorbereitung auf der einen und Analyse auf der anderen Seite schließen, damit mehr Zeit und Ressourcen eingespart werden können.
2. Eingebettete Analyse wird Self-Service Reporting ersetzen
2015 hatte ich vorhergesagt, dass eingebettete Analyse das neue BI ist. Diese Vision einer neuen Anwendungsgeneration wird reifer und löst das Self-Service Reporting ab. Analyse, und das wird immer deutlicher, muss in der Anwendung genutzt werden können, wo die Daten anfallen, unabhängig von der Anzahl und Qualifizierung der End-Anwender. Zum Beispiel ermöglicht es CERN, dass seine 15.000 globalen Nutzer Zugriff auf Analyse innerhalb ihrer spezifischen Anwendungen bekommen.
:quality(80)/images.vogel.de/vogelonline/bdb/969900/969942/original.jpg)
Vorhersagen von Quentin Gallivan, Pentaho
2016 ist Big Data auf dem Sprung zum Mainstream
3. Durch das Zusammenwachsen von IoT mit Big Data wird automatisiertes Data-Onboarding zum Muss
In diesem Jahr war die vorausschauende Instandhaltung durch ihr ROI-Potenzial einer der herausragenden IoT-Anwendungsfälle. Das wird sich 2017 fortsetzen. Alles, vom Schiffscontainer, über das Windrad bis hin zur Zugtür, wird mit Sensoren bestückt, um Information zu Standort, Status oder Stromverbrauch zu erhalten. Um diese enormen Datenmengen einzuspeisen, mit anderen Datensätzen zu verknüpfen und zu analysieren, wird die automatisierte Erkennung und das Onboarding jeglicher Datentypen in die Analyse-Pipeline zum Muss. Denn die Daten sind zu groß, komplex und schnell, als dass IT Teams den Prozess manuell bewältigen könnten.
4. Frühe Nutzer von künstlicher Intelligenz und Maschinellem Lernen haben bei der Digitalisierung der Geschäftsprozesse einen Vorteil
Die Anwendungsfälle für Big Data und IoT generieren große Datenmengen in hoher Geschwindigkeit, für die die Modelle für künstliche Intelligenz und Maschinelles Lernen ursprünglich ausgelegt waren. Dadurch, dass diese Systeme kontinuierlich aus ihrem Kontext heraus lernen und immer genauere Vorhersagen treffen können, erzielen die frühen Nutzer in 2017 einen großen Vorteil. Das gilt für alle Branchen, egal ob der Online-Händler bessere Kundenempfehlungen geben kann, der Hersteller Wartungskosten reduziert oder der Flugplatz eine Terrorattacke verhindern muss.
5. Cyber-Security wird der wichtigste Big-Data-Anwendungsfall
Wie bei der Prognose von Wahlergebnissen hängt auch die Aufdeckung von Sicherheitslücken von der richtigen Einschätzung menschlichen Verhaltens ab. Für präzise Vorhersagen müssen strukturierte Daten mit anderen Daten wie z. B. Stimmungs- oder Standort-Daten verknüpft werden. Der Netzwerk und IT-Dienstleister BT zum Beispiel verknüpft für seine BT-Assure-Cyber-Sicherheitsplattform Ereignis- und Telemetrie-Daten aus Geschäftssystemen, traditionellen Sicherheitskontrollen und modernen Früherkennungstools, um komplexe und nachhaltige Sicherheitsbedrohungen zu entdecken und abzuschwächen.
(ID:44429196)