Suchen

Kommentar von Richard Sijbrandij, Arrow ECS Mehr Durchblick mit Big Data

| Autor / Redakteur: Richard Sijbrandij / Nico Litzel

Gewaltige Datenmengen wurden in den vergangenen zehn Jahren generiert. Die heutigen Daten kommen nicht mehr überwiegend von Enterprise-Systemen. Soziale Netzwerke, Blogs, Produktbewertungsseiten, E-Mails, Bilder, Videos und viele andere Quellen liefern mehr oder weniger strukturierte Daten. Weitere Daten entstehen im Zuge der Digitalisierung, beim Internet der Dinge beziehungsweise Rahmen von Industrie 4.0.

Firma zum Thema

Der Autor: Richard Sijbrandij ist Practice Leader Big Data und Analytics bei Arrow Enterprise Computing Solutions (ECS) EMEA.
Der Autor: Richard Sijbrandij ist Practice Leader Big Data und Analytics bei Arrow Enterprise Computing Solutions (ECS) EMEA.
(Bild: Arrow ECS)

Die Prognosen über die Datenflut sagen einen exponentiell steigenden Datenbestand voraus. Beispielsweise prognostiziert das Markforschungsunternehmen IDC, dass das digitale Universum im Jahr 2020 etwa 44-mal größer sein wird, als es im Jahr 2009 war und 35 Zettabyte umfassen wird.

Big Data ist inzwischen ein gängiger Begriff. Ursprünglich bezeichnete Big Data Datenmengen, die zu groß, zu komplex, sich zu schnell ändern oder zu schwach strukturiert für die herkömmliche Datenverarbeitung sind.

Big Data liefert entscheidungsrelevante Informationen

In der öffentlichen Wahrnehmung tritt Big Data oft als eine Revolution im Umgang mit Informationen in Erscheinung, heißt es in einer Ausarbeitung des Fraunhofer SIT. Tatsächlich handele es sich aber um eine Evolution der Werkzeuge, welche die Datenmenge verarbeiten.

Der Branchenverband Bitkom liefert in seinem Leitfaden „Big Data und Geschäftsmodell-Innovationen in der Praxis“ folgende Definition: Big Data unterstützt die wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus qualitativ vielfältigen und unterschiedlich strukturierten Informationen, die einem schnellen Wandel unterliegen und in bisher ungekanntem Umfang zu Verfügung stehen.

Big Data weist vier wesentliche Facetten auf: Datenmenge (Volume), Datenvielfalt (Variety), Geschwindigkeit (Velocity) und Analytics . Immer mehr Organisationen und Unternehmen verfügen über gigantische Datenmengen – mehrere Terabytes bis hin zu Petabytes. Aber nicht nur der Datenumfang wächst, sondern auch die Vielfalt an Datenquellen und Formaten nimmt zu. Die anfallenden Datenmengen lassen sich grob gruppieren in unstrukturierte, semistrukturierte und strukturierte Daten. Eine weitere Herausforderung besteht häufig in der Ergänzung unternehmensinterner Daten durch externe Informationen, die verifiziert werden müssen.

Die Verarbeitungsgeschwindigkeit muss mit dem Datenwachstum Schritt halten. Große Datenmengen müssen in kürzester Zeit analysiert werden. Zur Analytics gehören die Methoden zur möglichst automatisierten Erkennung und Nutzung von Mustern, Zusammenhängen und Bedeutungen. Im Vordergrund stehen die Geschwindigkeit der Analyse (Realtime, Near-Realtime) und gleichzeitig die einfache Anwendbarkeit – ein ausschlaggebender Faktor beim Einsatz von analytischen Methoden in vielen Unternehmensbereichen.

Schnelle und fundierte Entscheidungen möglich

Die wichtigsten Treiber für den Einsatz von Big Data und Analytics sind laut IDC die Verbesserung der Qualität bei der Entscheidungsfindung (61 Prozent), bei Planung und Prognose (57 Prozent) sowie die schnellere Entscheidungsfindung (51 Prozent).

Automobilbauer und Versicherungen sind in Deutschland Vorreiter bei der Nutzung fortschrittlicher Big-Data-Analysen. Jeweils 21 Prozent der Unternehmen setzen in diesen Branchen moderne Methoden der Datenanalyse ein. Ebenfalls zur Spitzengruppe gehören Chemie- und Pharma-Unternehmen mit 20 Prozent sowie die Energiewirtschaft mit 19 Prozent. Big-Data-Analysen liefern den Unternehmen die Grundlage für fundierte Entscheidungen. Aber das größte Potenzial liegt in der Entwicklung neuer Geschäftsmodelle, auch in Kombination mit anderen Technologien wie Cloud Computing.

Mit der dritten IT-Plattform werden die Komplexe und Innovationstreiber Cloud Computing, Mobility, Big Data/Analytics, Social Business und deren Wechselwirkungen untereinander bezeichnet. Während die erste Plattform für die Mainframe-Welt und die zweite für Client/Server-Systeme stehen. Die dritte Plattform ist die Basis, die Anwendungen und Möglichkeiten unter anderem in den Bereichen Robotik, Natürliche Benutzeroberflächen, IoT, kognitive Systeme, 3D Druck und Next Generation Security formen. Aber es bildet auch die Basis dafür, wie Unternehmen und Behörden mit Kunden interagieren, die Zeit für die Einführung neuer Produkte und Services reduzieren, Innovationen kreieren und Märkte erobern.

Das Internet der Dinge gewinnt an Dynamik

Auch wenn die ein oder andere IoT-Anwendung schon lange existiert und heute nur eben IoT genannt wird, so gewinnt das Thema nun richtig an Dynamik. Das Internet der Dinge wird viele Bereiche mit neuen Anwendungen nachhaltig verändern.

Je mehr Geräte miteinander vernetzt werden, umso mehr rücken Daten-Sicherheit und Daten-Schutz in den Vordergrund, während gleichzeitig auch neue Werte auf Basis dieser Daten geschaffen werden. Den sich täglich ändernden Bedrohungsszenarien muss sich eine IoT-Architektur ebenso stellen wie eine klassische IT-Infrastruktur.

Als Beispiel mag das Smart Home dienen, wenn ein Bewohner diverse Funktionalitäten seines Zuhauses von unterwegs steuert. Es bieten sich neue Angriffspunkte, die es vorher in der Form nicht gab. Die Liste ließe sich mit medizinischen Einrichtungen, industrieller Herstellung usw. endlos fortsetzen, denn viele Bereiche werden IoT-Anwendungen mit externen Zugängen und Verbindungen implementieren. Daher ist es wichtig, Security von Anfang an in die Design-Überlegungen mit einzubeziehen und alle Knotenpunkte des Systems abzusichern, beispielsweise durch Endgeräte-Authentifizierung, Verschlüsselung und Möglichkeiten zur Erkennung von Manipulationsversuchen.

Hinzu kommen Faktoren wie die immer konkrete werdende Umstellung auf IPv6 und die Herausforderung fehlender Standards. IoT-Knotenpunkte sind ein Sub-System einer IoT-Plattform und erfordern Gateways in Verbindung mit Cloud Services und mit entsprechender Sicherheits-Software, um ein System abzusichern. Anwender stehen bei der Absicherung des Internet of Things vor neuen Aufgaben, aufgrund der Vielzahl möglicher Knotenpunkte, ihrer Zugänglichkeit oder der Nutzung verschiedenster Funk- und Mobiltechnologien.

Datenschutz und Datensicherheit haben großen Stellenwert

Einer der größten Herausforderungen beim Einsatz von Big Data liegen im Datenschutz und in der Datensicherheit – das ist eine von zehn Thesen einer Kurzstudie der Smart-Data-Begleitforschung. Die mit Abstand meisten Befragten gaben an, dass der Schutz persönlicher Daten (61 Prozent) sowie die Datensicherheit (57 Prozent) die größten Hindernisse beim Einsatz von Big-Data-Technologien darstellen.

Bei den befragten Teilnehmern des Smart-Data-Programms des Bundeswirtschaftsministeriums für Wirtschaft und Energie (BMWi) sind es mit je 77 Prozent und 70 Prozent sogar noch mehr. Das liegt zum einen daran, dass viele Nutzungsmodelle Kundendaten einbeziehen. Hier muss ein entsprechend hoher Datenschutz gewährleistet bzw. Daten anonymisiert werden. Zum anderen ist der aufgrund von Sicherheitsrichtlinien erschwerte Zugang zu Daten eine Herausforderung für Unternehmen. Daneben herrscht in den Betrieben vor allem ein Mangel an fachlicher (55 Prozent) und technischer Expertise (49 Prozent). In Unternehmen die Teil des Smart-Data-Programms sind, wird dies naturgemäß weniger als Problem eingestuft (41 bzw. 37 Prozent).

Big Data und Cloud Computing gehören zusammen

Big Data steht in engem Zusammenhang mit Cloud Computing, denn die Speicherung und Verarbeitung der gewaltigen Datenmengen erfordert große, flexibel handhabbare Kapazitäten. Dabei ist zu beachten, dass die EU-Datenschutzrichtlinie 95/46/EG es verbietet, persönliche Daten aus Mitgliedsstaaten der Europäischen Union in Staaten zu übertragen, deren Datenschutz kein dem EU-Recht vergleichbare Standards aufweist.

Das bisher gültige Safe-Harbor-Abkommen der EU mit den USA über die legale Übermittlung von personenbezogenen Daten in die USA hat der Europäische Gerichtshof (EuGH) am 6. Oktober 2015 aufgehoben. Inzwischen wurde mit „EU-US Privacy Shield“ ein neues Abkommen ausgehandelt, an dem EU-Datenschützer allerdings Nachbesserungsbedarf sehen. Die andauernde Datenschutz-Diskussion veranlasst verstärkt internationale Anbieter in der EU bzw. in Deutschland Rechenzentren zu errichten oder die relevanten Daten bei deutschen Partnern zu hosten, um die EU-Datenschutzanforderungen zu erfüllen.

Die neue General Data Protection Regulation (GDPR) ist eine Regelung, mit der die Europäische Kommission beabsichtigt, Datenschutz für Privatpersonen innerhalb der EU zu stärken und zu vereinheitlichen. Sie ersetzt die Direktive 95/46/EC aus dem Jahr 1995. Die GDPR wird in allen Mitgliedsstaaten direkt angewendet, ohne weitere Gesetzgebung auf Landesebene. Aller Voraussicht nach tritt sie in der ersten Hälfte 2018 in Kraft. Die GDPR sieht hohe Strafen vor für den Fall, dass gegen die Regeln verstoßen wird.

Artikelfiles und Artikellinks

(ID:44033253)