Definition

Was ist Big Data?

| Autor / Redakteur: Michael Radtke / Nico Litzel

(© aga7ta - Fotolia)

Der im Internet und in den Unternehmen verfügbare Datenberg – diese Tatsache wird als Big Data umschrieben – wird immer größer, unübersichtlicher und lässt sich nur schwer verarbeiten. Immer technologisch anspruchsvollere Tools und Programme sollen die Datenflut zähmen.

Der Begriff Big Data stammt aus dem englischen Sprachraum. Erst als Phänomen oder als Hype wahrgenommen, fassen die Experten mittlerweile unter diesem Begriff zwei Aspekte zusammen. Demnach umschreibt er zum einen die immer rasanter wachsenden Datenmengen; zum anderen aber geht es auch um neue und explizit leistungsstarke IT-Lösungen und Systeme, mit denen Unternehmen die Informationsflut vorteilhaft verarbeiten können. Insbesondere unstrukturierte Daten – zum Beispiel aus den sozialen Netzwerken – machen dabei einen nicht unerheblichen Teil der Massendaten aus. Mit dem Grid Computing steht diesbezüglich jetzt eine spezielle Form des verteilten Rechnens zur Verfügung, womit eine rechen- und datenintensive Datenverarbeitung ermöglicht wird.

Eine neue Ära digitaler Kommunikation

In Deutschland wird die Wortschöpfung Big Data oft als Sammelbegriff für die moderne digitale Technologie verwendet. Aber nicht nur die digitalen Datenmengen an sich stehen im Fokus. Vielmehr nimmt Big Data und die damit einhergehende Digitalisierung auch nachhaltig Einfluss auf die Sammlung, Nutzung, Verwertung, Vermarktung und vor allem Analyse der digitalen Daten. Inzwischen steht dieser Name diesbezüglich für eine vollkommen neue Ära digitaler Kommunikation und entsprechender Verarbeitungspraktiken. In sozialer Hinsicht wird dieser Umstand sogar für einen grundlegenden gesellschaftlichen Wandel – respektive Umbruch – verantwortlich gemacht.

Wettbewerbsvorteile mit Big Data Analytics generieren

Diese Entwicklung hat aber gerade Auswirkungen auf die Unternehmenslandschaft. Die Firmen erhalten nämlich durch die großen Mengen an Daten, die zur Verfügung stehen, ganz neue Einblicke in die Interessen, das Kaufverhalten und auch das Risikopotenzial von Kunden sowie von potenziellen

Interessenten. Damit die Information auch entsprechend gefiltert, untersucht, beurteilt und entsprechend eingeordnet werden können, greifen Unternehmen gezielt zu Analytics-Methoden. Hinter dem Begriff Analytics verbergen sich dabei explizite Maßnahmen, um in dem Datenbergen unbekannte Korrelationen, versteckte Muster und andere nützliche Informationen zu identifizieren. Diese Erkenntnisse können dann für Wettbewerbsvorteile gegenüber Konkurrenten sorgen oder auch anderweitige geschäftliche Vorteile – wie etwa ein effektiveres Marketing oder auch Umsatzsteigerungen – bringen.

Software Tools für eine fortschrittliche Analytik

Die Unternehmen verfolgen mit der komplexen Datenanalyse dabei in erster Linie das Ziel, bessere Entscheidungsgrundlagen für die eigene Geschäftstätigkeit zu schaffen. Um dieses Hauptziel zu realisieren, wertet ein Data Scientist – die Experten für Big Data – die riesigen Mengen an entsprechenden Transaktionsdaten sowie zusätzlich an anderweitigen Informationen aus den unterschiedlichsten Datenquellen aus.

Zu diesen Quellen zählen zum Beispiel Internet-Clickstreams, Protokolle von Webservern, Einzelverbindungsnachweise für Mobiltelefone, Informationen von Sensoren oder vor allem auch Berichte über Social-Media-Aktivitäten der User. Für die Verarbeitung und Analyse dieser Massendaten greifen Unternehmen auf Software Tools zurück, die sowohl Big als auch Small Data Analytics umfassend ermöglichen.

Quelloffene Software Frameworks

In den vergangenen Jahren ist eine ganz neue Klasse von extrem leistungsstarken Technologien und Programmen entstanden. Dabei rücken gerade quelloffene Software Frameworks wie Apache Hadoop, Spark, NoSQL-Datenbanken sowie zum Beispiel Map Reduce in den Fokus. Gerade Spark und vor allem Hadoop erfreuen sich dabei einer ungemein großen Beliebtheit. Hadoop basiert auf dem von Google generierten MapReduce-Algorithmus in Kombination mit Vorschlägen des Google-Dateisystems. Anwender können mit diesem Programm große Datenmengen im Rahmen intensiver Rechenprozesse auf so bezeichneten Computerclustern verarbeiten; dieser Vorgang wird auch als Cluster Computing bezeichnet. Die Entwicklung in diesem Bereich wird stetig durch Software-Unternehmen vorangetrieben, etwa von den Anbietern Cloudera oder Hortonworks.

Big Table, Graphdatenbanken und Distributed File Systems

Immer mehr an Bedeutung gewinnt dabei zum Beispiel Big Table, das von Google entwickelte Hochleistungs-Datenbanksystem. Auch das einfach strukturierte, verteilte Datenbankverwaltungssystem Cassandra rückt als explizite Lösung für sehr große strukturierte Datenbanken verstärkt in den Vordergrund. Dabei ist Cassandra insbesondere auf Ausfallsicherheit und eine hohe Skalierbarkeit ausgelegt.

Eine weitere Lösungsalternative stellen zum Beispiel Graphdatenbanken dar. Hierbei werden stark vernetzte Informationen als Graphen dargestellt, wobei die spezialisierten Graphalgorithmen komplexe bzw. komplizierte Datenbankanfragen erheblich vereinfachen. Zudem ist es ratsam, ein verteiltes Dateisystem – ein Distributed File System – zu nutzen. Ein solches Netzwerk-Dateisystem optimiert die Zugriffs- und Speicherungsmöglichkeiten deutlich.

Optimierte Speichertechnik

Neben moderner und hoch funktioneller Software spielt auch die Hardware – explizit die Speichertechnologie – bei Big Data eine entscheidende Rolle. Mittlerweile macht es die Speichertechnologie möglich, Datenvolumen im Rahmen des sogenannten In-Memory Computing direkt im Hauptspeicher eines Rechners zu halten. Früher mussten diese Daten gewöhnlich auf langsamere Speichermedien wie Festplatten oder Datenbanken ausgelagert werden. Dank In-Memory Computing wird jetzt die Rechengeschwindigkeit deutlich erhöht und die Echtzeitanalyse umfangreicher Datenbestände ermöglicht.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Big Data im Rundfunk – der schlafende Riese

Kommentar von Richard Scott, Sony Professional Europe

Big Data im Rundfunk – der schlafende Riese

Die Digitalisierung geht im Rundfunk- und Entertainmentsektor schleppend voran. So erfolgte die vollständige Umstellung des Satellitenfernsehens von analog zu digital erst im Jahr 2012, das Kabelfernsehen soll den Umstieg sogar erst Ende 2018 vornehmen und das deutsche Radio nutzt analoges UKW noch bis 2025. Kein Wunder also, dass sich der Rundfunk- und Entertainmentsektor auch beim Thema Big Data langsam und vorsichtig vorantastet. lesen

Können Künstliche Intelligenz und Big Data die Arbeit erleichtern?

Social Collaboration

Können Künstliche Intelligenz und Big Data die Arbeit erleichtern?

Social Collaboration ist für viele Unternehmen ein guter Hebel, die digitale Transformation innerbetrieblich voranzutreiben. Moderne Collaboration-Lösungen ermöglichen eine effiziente Zusammenarbeit und erhöhen die Innovativität der Mitarbeiter. Sie bündeln nicht nur Kommunikationswege wie E-Mail, Chat, Telefon-, Video-, Webkonferenzen und Instant-Messenger, sondern integrieren im besten Fall auch Big-Data-Technologie und Künstliche Intelligenz (KI). lesen

Fujitsu übernimmt technische Leitung von EU-Projekt

IoT-Sicherheit mit „Protecting Digital Industries“

Fujitsu übernimmt technische Leitung von EU-Projekt

Für das EU-finanzierte Innovationsprojekt „Protecting Digital Industries“ hat Fujitsu die technische Leitung übernommen. Das Projekt widmet sich dem automatisierten Risikomanagement von IoT-Systemen in verschiedenen Infrastrukturen. lesen

Datameer setzt künftig zuerst auf die Cloud

Elastic Big Data Preparation and Exploration

Datameer setzt künftig zuerst auf die Cloud

Mit dem neuen Release seiner Plattform vollzieht Datameer den Schritt zum Lösungsanbieter mit Cloud-Fokus. Die aktuelle Version ist über Amazon Web Services (AWS) verfügbar und setzt verstärkt auf den bedarfsgerechten Einsatz von Ressourcen. lesen

Von der Big-Data-Infrastruktur zu analytischen Dienstleistungen

Cloudera und Fast Forward Labs

Von der Big-Data-Infrastruktur zu analytischen Dienstleistungen

Cloudera, einer der führenden Anbieter für Big-Data-Infrastrukturen, steigt mit dem Erwerb des New Yorker Kleinunternehmens Fast Forward Labs in das Geschäft mit der Beratung zu datenanalytischen Fragen ein. lesen

Digitalisierung liegt zu selten in der Hand des Chefs

Bitkom-Studie

Digitalisierung liegt zu selten in der Hand des Chefs

Die Digitalisierung verändert den Markt. Umso wichtiger ist es für Unternehmen, sich frühzeitig in digitale Strukturen zu integrieren und am technologischen Wandel teilzunehmen. Im Auftrag von Tata Consultancy Services interviewte Bitkom Führungskräfte zum Thema Digitale Transformation im Unternehmen. lesen

Augmented Intelligence – nehmen uns Daten das Denken ab?

Business-Intelligence-Grundlagen

Augmented Intelligence – nehmen uns Daten das Denken ab?

Es ist das Wesen von Business Intelligence: die Analyse und Visualisierung unterschiedlichster Daten auf einer gemeinsamen Oberfläche, um neue Einsichten zu gewinnen – aufgrund derer dann Prozesse beschleunigt werden, der Absatz steigt oder Unternehmen ihre Ressourcen besser verteilen. Kurz: Daten pushen Business. Ein großes Thema dabei: Automatisierung, ob nun beim Generieren, Laden oder Aktualisieren von Daten. Doch kann Technologie aus den Datenkombinationen auch automatisch Schlüsse ziehen, intuitiv oder aufgrund von Erfahrung abwägen – und letztlich Entscheidungen treffen. lesen

Maschinenbau und Gewerkschaft im Digitalisierungsdialog

Arbeitswelten 4.0

Maschinenbau und Gewerkschaft im Digitalisierungsdialog

Dass die Digitalisierung für einen Effizienzschub in der Wirtschaft sorgen wird, steht außer Frage. Doch welche Auswirkungen hat das alles auf die Arbeitswelt? Antworten darauf suchten Maschinenbauer und Gewerkschafter bei der Fachkonferenz Arbeitswelten 4.0 in Schkeuditz. lesen

Deloitte zeichnet Deutschlands erfolgreichste Unternehmen aus

Technology Fast 50 Award

Deloitte zeichnet Deutschlands erfolgreichste Unternehmen aus

Deutschland wird nachgesagt, kein besonders gutes Pflaster für Start-ups zu sein. Das Gegenteil beweist der Unternehmensberater Deloitte, der in diesem Jahr schon zum 15. Mal den „Technology Fast 50 Award“ an die am schnellsten wachsenden Unternehmen der Technologiebranche vergibt. Neue Kategorien wie etwa der „Rising Star“ zeigen, dass es nicht so schlecht um den Standort Deutschland steht. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44399329 / Definitionen)