Definition

Was ist Big Data?

| Autor / Redakteur: Michael Radtke / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Der im Internet und in den Unternehmen verfügbare Datenberg – diese Tatsache wird als Big Data umschrieben – wird immer größer, unübersichtlicher und lässt sich nur schwer verarbeiten. Immer technologisch anspruchsvollere Tools und Programme sollen die Datenflut zähmen.

Der Begriff Big Data stammt aus dem englischen Sprachraum. Erst als Phänomen oder als Hype wahrgenommen, fassen die Experten mittlerweile unter diesem Begriff zwei Aspekte zusammen. Demnach umschreibt er zum einen die immer rasanter wachsenden Datenmengen; zum anderen aber geht es auch um neue und explizit leistungsstarke IT-Lösungen und Systeme, mit denen Unternehmen die Informationsflut vorteilhaft verarbeiten können – Stichwort Machine Learning. Insbesondere unstrukturierte Daten – zum Beispiel aus den sozialen Netzwerken – machen dabei einen nicht unerheblichen Teil der Massendaten aus. Mit dem Grid Computing steht diesbezüglich jetzt eine spezielle Form des verteilten Rechnens zur Verfügung, womit eine rechen- und datenintensive Datenverarbeitung ermöglicht wird.

Eine neue Ära digitaler Kommunikation

In Deutschland wird die Wortschöpfung Big Data oft als Sammelbegriff für die moderne digitale Technologie verwendet. Aber nicht nur die digitalen Datenmengen an sich stehen im Fokus. Vielmehr nimmt Big Data und die damit einhergehende Digitalisierung auch nachhaltig Einfluss auf die Sammlung, Nutzung, Verwertung, Vermarktung und vor allem Analyse der digitalen Daten. Inzwischen steht dieser Name diesbezüglich für eine vollkommen neue Ära digitaler Kommunikation und entsprechender Verarbeitungspraktiken. In sozialer Hinsicht wird dieser Umstand sogar für einen grundlegenden gesellschaftlichen Wandel – respektive Umbruch – verantwortlich gemacht.

Wettbewerbsvorteile mit Big Data Analytics generieren

Diese Entwicklung hat aber gerade Auswirkungen auf die Unternehmenslandschaft. Die Firmen erhalten nämlich durch die großen Mengen an Daten, die zur Verfügung stehen, ganz neue Einblicke in die Interessen, das Kaufverhalten und auch das Risikopotenzial von Kunden sowie von potenziellen

Interessenten. Damit die Information auch entsprechend gefiltert, untersucht, beurteilt und entsprechend eingeordnet werden können, greifen Unternehmen gezielt zu Analytics-Methoden. Hinter dem Begriff Analytics verbergen sich dabei explizite Maßnahmen, um in dem Datenbergen unbekannte Korrelationen, versteckte Muster und andere nützliche Informationen zu identifizieren. Diese Erkenntnisse können dann für Wettbewerbsvorteile gegenüber Konkurrenten sorgen oder auch anderweitige geschäftliche Vorteile – wie etwa ein effektiveres Marketing oder auch Umsatzsteigerungen – bringen.

Software Tools für eine fortschrittliche Analytik

Die Unternehmen verfolgen mit der komplexen Datenanalyse dabei in erster Linie das Ziel, bessere Entscheidungsgrundlagen für die eigene Geschäftstätigkeit zu schaffen. Um dieses Hauptziel zu realisieren, wertet ein Data Scientist – die Experten für Big Data – die riesigen Mengen an entsprechenden Transaktionsdaten sowie zusätzlich an anderweitigen Informationen aus den unterschiedlichsten Datenquellen aus.

Zu diesen Quellen zählen zum Beispiel Internet-Clickstreams, Protokolle von Webservern, Einzelverbindungsnachweise für Mobiltelefone, Informationen von Sensoren oder vor allem auch Berichte über Social-Media-Aktivitäten der User. Für die Verarbeitung und Analyse dieser Massendaten greifen Unternehmen auf Software Tools zurück, die sowohl Big als auch Small Data Analytics umfassend ermöglichen.

Quelloffene Software Frameworks

In den vergangenen Jahren ist eine ganz neue Klasse von extrem leistungsstarken Technologien und Programmen entstanden. Dabei rücken gerade quelloffene Software Frameworks wie Apache Hadoop, Spark, NoSQL-Datenbanken sowie zum Beispiel Map Reduce in den Fokus. Gerade Spark und vor allem Hadoop erfreuen sich dabei einer ungemein großen Beliebtheit. Hadoop basiert auf dem von Google generierten MapReduce-Algorithmus in Kombination mit Vorschlägen des Google-Dateisystems. Anwender können mit diesem Programm große Datenmengen im Rahmen intensiver Rechenprozesse auf so bezeichneten Computerclustern verarbeiten; dieser Vorgang wird auch als Cluster Computing bezeichnet. Die Entwicklung in diesem Bereich wird stetig durch Software-Unternehmen vorangetrieben, etwa von den Anbietern Cloudera oder Hortonworks.

Big Table, Graphdatenbanken und Distributed File Systems

Immer mehr an Bedeutung gewinnt dabei zum Beispiel Big Table, das von Google entwickelte Hochleistungs-Datenbanksystem. Auch das einfach strukturierte, verteilte Datenbankverwaltungssystem Cassandra rückt als explizite Lösung für sehr große strukturierte Datenbanken verstärkt in den Vordergrund. Dabei ist Cassandra insbesondere auf Ausfallsicherheit und eine hohe Skalierbarkeit ausgelegt.

Eine weitere Lösungsalternative stellen zum Beispiel Graphdatenbanken dar. Hierbei werden stark vernetzte Informationen als Graphen dargestellt, wobei die spezialisierten Graphalgorithmen komplexe bzw. komplizierte Datenbankanfragen erheblich vereinfachen. Zudem ist es ratsam, ein verteiltes Dateisystem – ein Distributed File System – zu nutzen. Ein solches Netzwerk-Dateisystem optimiert die Zugriffs- und Speicherungsmöglichkeiten deutlich.

Optimierte Speichertechnik

Neben moderner und hoch funktioneller Software spielt auch die Hardware – explizit die Speichertechnologie – bei Big Data eine entscheidende Rolle. Mittlerweile macht es die Speichertechnologie möglich, Datenvolumen im Rahmen des sogenannten In-Memory Computing direkt im Hauptspeicher eines Rechners zu halten. Früher mussten diese Daten gewöhnlich auf langsamere Speichermedien wie Festplatten oder Datenbanken ausgelagert werden. Dank In-Memory Computing wird jetzt die Rechengeschwindigkeit deutlich erhöht und die Echtzeitanalyse umfangreicher Datenbestände ermöglicht.

Was ist Big Data? Analytics, Definition, Bedeutung & Beispiele

Logistiksoftware

Was ist Big Data? Analytics, Definition, Bedeutung & Beispiele

16.01.19 - An Big Data führt kein Weg mehr vorbei. Trotzdem sehen viele Betriebe das Thema noch skeptisch. Hier erfahren Sie, was Big Data bedeutet, welche konkreten Anwendungsszenarien es gibt und welche Trends Experten Big-Data-Technologien prognostizieren – Praxisbeispiele inklusive! lesen

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Zentralisiertes Datenmanagement schafft Mehrwert für Kunden

Kommentar von Dr. Ramin Beravat, TeamBank AG Nürnberg

Zentralisiertes Datenmanagement schafft Mehrwert für Kunden

Ohne Daten keine Zukunft. Das weiß auch die TeamBank. Aus diesem Grund wurden alle Weichen in Richtung digitale Zukunft gestellt. Das sogenannte „Öl des 21. Jahrhunderts“ wird in großen Mengen gesammelt und mit einer komplexen Daten-Pipeline und ebenso komplexen Algorithmen gesteuert und ausgewertet. Dieser Artikel gibt einen Überblick, wie die TeamBank mittels Machine Learning und Analytics aus Daten Mehrwert für Kunden schafft und weshalb ein zentrales Datenmanagement so wichtig ist. lesen

Präzisere Gewittervorhersage dank Künstlicher Intelligenz

Forschungsprojekt gestartet

Präzisere Gewittervorhersage dank Künstlicher Intelligenz

Gemeinsam mit dem Deutschen Wetterdienst arbeiten Informatikprofessor Jens Dittrich und sein Doktorand Christian Schön von der Universität des Saarlandes an einem KI-basierten System, das Gewitter genauer als bisher vorhersagen soll. lesen

Ethikbeirat legt Richtlinien für KI im HR-Management vor

Praxisorientierter Entwurf vorgestellt

Ethikbeirat legt Richtlinien für KI im HR-Management vor

HR-Tech, ein Ethikbeirat mit Vertretern aus Wissenschaft, Gewerkschaften, Start-ups und Unternehmen, hat praxisorientierte Richtlinien für den verantwortungsvollen Einsatz von KI im Personalmanagement entwickelt. lesen

Pseudonymisierung vs. Anonymisierung gemäß der DSGVO

Kommentar von Gary LaFever, Anonos, und Stefan Müller, IT-Novum

Pseudonymisierung vs. Anonymisierung gemäß der DSGVO

Obwohl die DSGVO längst in Kraft getreten ist, gibt es weiterhin viel Klärungsbedarf. Ein Grund ist die mangelnde Wahrnehmung einiger grundlegender Konzepte der Datenschutzverordnung. Bei vielen Kunden fällt uns auf, dass zwar der Begriff der Anonymisierung häufig im Zusammenhang fällt, aber großes Unwissen über das Konzept der Pseudonymisierung herrscht. Letztere ist mindestens genauso wichtig wie erstere, denn nur wenn sie erfüllt ist, dürfen personenbezogene Daten weiterhin ausgewertet werden. lesen

Channel Guide AWS

Die Cloud ist mehr als ein Bereitstellungsmodell

Channel Guide AWS

IT wie Strom aus der Steckdose, so lautete die Vision, als Amazon Web Services (AWS) im Jahr 2006 erstmals Speicherkapazität und Rechenleistung in der Cloud bereitstellte. Die Vorzüge des Modells, das bald Nachahmer fand, sind mittlerweile praktisch jedem in der Branche geläufig. lesen

Künstliche Intelligenz aus dem Datenpool

HPE kauft Bluedata, einen Anbieter von AI-Plattform-Software

Künstliche Intelligenz aus dem Datenpool

Ende November 2018 kaufte Hewlett Packard Enterprise (HPE) den Künstliche-Intelligenz-, Machine-Learning- und Big-Data-Analytics-Spezialisten Bluedata und damit dessen Plattform Epic. Den Preis gab HPE nicht bekannt. Storage-Insider-Autorin Ariane Rüdiger sprach mit Patrick Osborne, weltweiter Vice President für Big Data und Secondary Storage bei HPE, über die Hintergründe des Deals. lesen

Was echte KI-Security von Katzenbildern lernen kann

Künstliche Intelligenz im Sicherheitskontext

Was echte KI-Security von Katzenbildern lernen kann

Hacker finden meist schnell einen Weg, neue Technologien zu ihrem Vorteil zu nutzen und KI ist da keine Ausnahme. Um intelligenten Cyberangriffen die Stirn zu bieten, müssen Security-Anbieter schon heute Wege finden, das Potenzial der neuen Technologie tatsächlich auszuschöpfen. Ein möglicher Schlüssel hierzu findet sich an unerwarteter Stelle: in der Bilderkennung. lesen

Warum NoSQL-Datenbanken unverzichtbar sind

Couchbase nennt fünf Trends

Warum NoSQL-Datenbanken unverzichtbar sind

Klassische relationale Datenbanken werden den Anforderungen am Markt nicht mehr gerecht, meint Couchbase. Der NoSQL-Spezialist nennt fünf Trends, die den Einsatz moderner Datenbanktechnologien erfordern. lesen

Welche Rolle spielt BI in der modernen Datenanalyse?

Kommentar von Thomas Strehlow, Oraylis

Welche Rolle spielt BI in der modernen Datenanalyse?

Im Zuge der rasanten technischen Entwicklung werden konventionelle Ansätze der Datenanalyse zunehmend in Frage gestellt. Anlass hierzu geben unter anderem diverse Business-Intelligence-„Mythen“, die sich inzwischen als gültige Wahrheiten verbreiten. Demnach hat beispielsweise das Data Warehouse ausgedient. Auch die Datenqualität scheint durch einen angedachten Verzicht auf Datenmodellierung und Single Point of Truth an Relevanz zu verlieren. Der konkrete Blick in den Projektalltag führt indes ein anderes Bild zu Tage. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44399329 / Definitionen)