Suchen

Big Data wird 2016 Mainstream Oracle identifiziert sechs wichtige Big-Data-Trends

| Autor / Redakteur: Dipl. -Ing. Thomas Drilling / Nico Litzel

Oracle wirft bei Big Data einen Blick in die Glaskugel. Wichtigste Erkenntnis: Daten sind „das Gold des Digitalen Zeitalters“ und im Gegensatz zum Edelmetall nicht endlich. 2016 wird Big Data im Mainstream ankommen. Der Rohstoff Daten trägt aber nur dann zu einer Steigerung der Wertschöpfung bei, wenn es Unternehmen gelingt, die Spreu vom Weizen zu trennen.

Firmen zum Thema

2016 kommt Big Data im Maintream an
2016 kommt Big Data im Maintream an
(Oracle)

Nach Ansicht von Oracle hilft Big Data Analytics Unternehmen nicht nur bei einer schnelleren Verwirklichung ihrer Ziele, sondern stärkt auch die Wettbewerbsposition, weil Unternehmen mit Big Data Analytics ihre Kunden besser verstehen oder Produkte und Services gezielter an den Markt anpassen können.

Laut Oracle verdoppeln sich alle 18 Monate die Terabytes an strukturierten und unstrukturierten digitalen Informationen. Die Herausforderung bestehe daher darin, aus dem unüberschaubaren Informationsfluss die wertvollen Körner zu sieben. Während die Nutzung und Analyse von Big Data lange ein Thema für IT- und Datenspezialisten war, werde Big Data dieses Jahr endlich im Mainstream ankommen. Folgende sechs Trends sehen die Oracle-Experten im Zusammenhang mit Big Data für 2016 voraus:

1. Ausgereifte Standardlösungen ersetzen Spezialsysteme

Während die Big-Data-Pioniere keine andere Wahl hatten, als eigene Cluster-Umgebungen auf Basis von Hadoop, Spark oder anderen aufkommenden Technologien zu entwickeln, zu verwalten und zu warten, hat heute niemand mehr die Zeit, entsprechenden Entwicklungsaufwand von sechs Monaten und mehr zu investieren. Doch mithilfe von Cloud-Diensten und Anwendungen mit vorkonfigurierten Automatisierungen und Standards wird 2016 ein sehr viel größerer Anwenderkreis auf ausgereifte Lösungen zugreifen können.

2. Datenvirtualisierung wird Realität

Unternehmen erfassen heute nicht nur eine immer größer werdende Bandbreite an Daten, sie verwenden auch eine Vielzahl an Algorithmen, Analysen und Software-Anwendungen. Damit Entwickler und Analytiker nicht den Überblick verlieren, wo welche Daten gespeichert sind, werden Unternehmen dieses Jahr nicht mehr nur auf eine einzelne Technologie setzen und künftig vermehrt Daten virtualisieren. Nutzer und Anwendungen greifen dann über SQL, REST und andere Skriptsprachen auf diese virtualisierten Daten zu.

3. Datenstromorientierte Programmierung beschleunigt das Tempo

Während in den Anfängen von Big Data Analytics manuell programmierte Datenverarbeitung dominierte, schaffen immer neue Verwaltungswerkzeuge heute die Voraussetzungen für eine anspruchsvollere Datenverarbeitung und drängen die ursprünglichen Big-Data-Technologien in den Hintergrund. Darüber hinaus wird sich die datenstromorientierte Programmierung weiter etablieren. Diese setzt auf eine starke Parallelverarbeitung, erleichtert die Wiederverwendung von funktionalen Operatoren und unterstützt nahtlos Funktionen für Statistik oder maschinelles Lernen.

4. Big Data wird zur Spielwiese von künstlicher Intelligenz

2016 wird auch ein vermehrter Einsatz von künstlicher Intelligenz bei der Datenverarbeitung zu beobachten sein, etwa maschinelles Lernen, automatische Texterkennung und Property-Graphen. Mithilfe von API-Bibliotheken können Big-Data-Anwendungen bereits jetzt auf solche Technologien zugreifen. 2016 werden sie zum Standard in IT-Werkzeugen für Echtzeit-Analysen und Datenwissenschaft.

5. Das Internet der Dinge und die Cloud sind Treibstoff für Big Data

Die heimlichen Treiber des Internets der Dinge (IoT) sind Big-Data-Cloud-Dienste. Diese werden vermehrt Sensordaten erfassen und für Big-Data-Analysen und Algorithmen bereitstellen. So werden Fertigungsunternehmen mithilfe hochsicherer IoT-Cloud-Services Produkte entwickeln, die auf Grundlage von Datenanalysen eigenständig Aktionen ausführen.

6. Datenvorschriften fördern die Hybrid Cloud

Je mehr über die Herkunft der Daten bekannt ist – und das bezieht sich nicht nur auf einen Sensor oder eine Datenbank, sondern auch auf die „Nationalität“ der Daten – desto leichter können Regierungen nationale Datenvorschriften durchsetzen. Internationale Unternehmen, die die Cloud nutzen wollen, geraten dadurch in ein Geflecht widerstrebender Interessen. Daher werden globale Unternehmen zunehmend Hybrid-Cloud-Infrastrukturen und regionale Rechenzentren etablieren. Diese stellen gewissermaßen den lokalen Vertreter eines größeren Cloud-Dienstes dar. Damit senken Unternehmen nicht nur Kosten, sondern stellen auch die Compliance sicher.

(ID:43822046)

Über den Autor

Dipl. -Ing. Thomas Drilling

Dipl. -Ing. Thomas Drilling

IT-Consultant, Trainer, Freier Journalist