Definition

Was ist Big Data Analytics?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Big Data Analytics ermöglicht es, große Datenmengen aus unterschiedlichen Quellen zu analysieren. Die gewonnenen Informationen oder erkannten Muster lassen sich einsetzen, um beispielsweise Unternehmensprozesse zu optimieren.

Big Data Analytics lässt sich in einzelne Teilgebiete gliedern. Die wichtigsten davon sind:

  • Die Datenbeschaffung aus verschiedenen Quellen mithilfe von Suchabfragen,
  • die Optimierung und Auswertung der gewonnenen Daten sowie
  • die Analyse der Daten und Präsentation der Ergebnisse.

Zunächst stellt sich bei der Big Data Analytics die Aufgabe, riesige Datenmengen unterschiedlichen Formats aus verschiedenen Quellen zu erfassen und für die weitere Bearbeitung aufzuarbeiten. Dabei besteht oft die Schwierigkeit, dass die großen Datenmengen unstrukturiert und in verschiedenen Formaten vorliegen. Da solche Informationen mit herkömmlicher Datenbanksoftware kaum zu erfassen sind, kommen bei Big Data Analytics aufwendige Prozesse zur Extraktion, Erfassung und Transaktion der Daten zum Einsatz. Anschließend erfolgt die Datenanalyse mithilfe spezieller Big Data Software, die statistische Methoden wie Predictive Analytics nutzt. Im letzten Schritt werden die gewonnen Ergebnisse aufbereitet und visualisiert. Big Data Analytics bezieht sämtliche Softwareanwendungen mit ein, die für die geschilderten Prozesse zum Einsatz kommen.

Die Herausforderungen von Big Data Analytics

Damit sich großen Informationsmengen erfassen und wie gewünscht auswerten lassen, muss Big Data Analytics mehrere Herausforderungen meistern. Die verwendete Software muss sowohl in der Lage sein, viele Suchabfragen schnell durchzuführen, als auch die unterschiedlichen Datensätze in hoher Geschwindigkeit zu importieren und zu verarbeiten. In der Regel nutzen Big-Data-Analytics-Anwendungen hierfür parallele Bearbeitungsverfahren. Es existieren für Big Data Analytics quelloffene Software-Frameworks, die spezielle Big-Data-Technologien beherrschen und die Verarbeitung von riesigen Informationsmengen mithilfe von vernetzten Clustersystemen ermöglichen.

Um die Performance weiter zu erhöhen, nutzen viele Systeme im Gegensatz zu herkömmlichen Datenbankanwendungen bei der Verarbeitung nicht Festplattenspeicher, sondern den schnelleren Arbeitsspeicher. Das sorgt für höhere Zugriffsgeschwindigkeiten und ermöglicht Analysen nahezu in Echtzeit.

Big Data Analytics zur Optimierung von Unternehmensprozessen

Big Data Analytics kommt häufig im Business-Intelligence-Umfeld zum Einsatz. Ziel ist es, mit den aus der Datenanalyse gewonnenen Erkenntnissen Unternehmensabläufe zu optimieren und Vorteile gegenüber Wettbewerbern zu erzielen. Hierfür untersucht Big Data Analytics große Mengen unterschiedlicher dem Unternehmen zur Verfügung stehender Daten nach nützlichen Informationen, versteckten Mustern oder anderen Korrelationen. Herkömmliche Programme für Business Intelligence sind zu solch umfassenden Analysen riesiger Informationsmengen nicht in der Lage. Die durch Big Data Analytics gewonnenen und visualisierten Analysen liefern Ergebnisse für die Optimierung verschiedener Geschäftsprozesse. Zudem können Sie für die Unterstützung schwieriger Entscheidungsprozesse herangezogen werden.

Weitere Anwendungsbereiche von Big Data Analytics

Neben der Business Intelligence ergeben sich für Big Data Analytics eine ganze Reihe weiterer Anwendungsbereiche. Die Analyse großer Datenmengen lässt sich beispielsweise in der Verbrechensbekämpfung, im Versicherungswesen für die Risikobewertung und Anpassung von Versicherungsbeiträgen oder im Gesundheitswesen einsetzen. Weitere mögliche Anwendungsbeispiele sind die Verarbeitung von Wetterdaten, die Auswertung von Bewegungsprofilen oder die Analyse von Webstatistiken.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Rechenzentren im Mittelpunkt der IoT-Datenflut

Enterprise Ireland gibt 5 Tipps für serviceorientierte Datacenter

Rechenzentren im Mittelpunkt der IoT-Datenflut

Es dreht sich um mehr als Kühlschränke, die eigenständig neue Einkaufslisten erstellen, oder in der Wohnung installierte Beleuchtungs- und Heizungssysteme, die sich automatisch einschalten, sobald die Bewohner auf dem Weg nach Hause sind. Connected Health, Smart Retail- oder Smart City-Projekte rufen große Begeisterung hervor und gewinnen immer mehr an Bedeutung. Rechenzentren müssen diese Infos verarbeiten, doch liefern sie längst eigene. lesen

Mit Apache Zeppelin Daten analysieren

Interaktives Notizbuch für Big Data

Mit Apache Zeppelin Daten analysieren

Das Apache-Toplevel-Projekt Zeppelin bietet ein Notizbuch für Daten aus anderen Systemen, mit denen Anwender diese effektiv analysieren können. Zeppelin arbeitet dazu eng mit Spark, Flink und Hadoop zusammen. lesen

Datenbasierte Früherkennung von Krankheiten findet Anklang

Analytics in der Medizin

Datenbasierte Früherkennung von Krankheiten findet Anklang

Wie der Digitalverband Bitkom berichtet, steht eine Mehrheit der Bundesbürger der Früherkennung von Krankheiten mittels Datenanalyse aufgeschlossen gegenüber. Insbesondere die jüngere Generation zeigt sich sehr interessiert. lesen

Teradata offeriert schlüsselfertige Analytics-Services

Nachbericht Teradata Universe EMEA 2019

Teradata offeriert schlüsselfertige Analytics-Services

Wissen Sie, was „Triple A S“ bedeutet? Vermutlich nicht, weshalb wir vorsichtshalber schon einmal Titelschutz dafür beantragen. Ausgeschrieben als „Analytics as a Service“, handelt es sich um das jüngste Geschäftsmodell von Teradata. Es bedeutet, dass sich der Kunde um die Administration seiner Daten nicht mehr selbst kümmern muss, auch wenn die Analyse über unterschiedliche Deployments und Produkte reicht. lesen

Das war die Hannover Messe 2019

Rückblick

Das war die Hannover Messe 2019

Vom 1. bis 5. April 2019 fand unter dem Leitthema „Integrated Industry – Industrial Intelligence“ die jährliche Hannover Messe statt. Aussteller und Besucher aus über 70 Ländern fanden den Weg in die Niedersächsische Landeshauptstadt. lesen

Benutzerfreundlichkeit ist das wichtigste Kaufkriterium

Advanced-Analytics-Software

Benutzerfreundlichkeit ist das wichtigste Kaufkriterium

Laut der „The Advanced Analytics Survey 19“ des Business Application Research Centers (BARC) ist die Benutzerfreundlichkeit das wichtigste Kaufkriterium für Unternehmen, die eine Advanced-Analytics-Lösung erwerben wollen. lesen

Digitale Transformation – 10 Punkte, die Unternehmen beachten sollten

Kommentar von Markus Enderlein, Infomotion

Digitale Transformation – 10 Punkte, die Unternehmen beachten sollten

Komplexere Datenwelten, neue Möglichkeiten der Vernetzung und der Wandel etablierter Technologien – die digitale Transformation schreitet in einer Geschwindigkeit voran, die selbst so manchen Branchenexperten verblüfft. Neue Herstellungsprozesse, Services und Märkte entstehen und die Nutzungsmuster und Erwartungen der Konsumenten verändern sich. lesen

Die Grundlage von allem ist Datenintegration

Nachbericht 6. Pentaho User Meeting

Die Grundlage von allem ist Datenintegration

Die Wetter-App zeigt für Frankfurt Regen an. Der Blick aus dem Fenster sagt jedoch: Sonne und zwölf Grad. Die Datenbasis des Wetterdienstes scheint nicht besonders gut zu sein. Oder nur nicht ausreichend integriert? Gute Tipps für Datenintegration hätten die Frankfurter Wetterfrösche direkt vor Ort bekommen können: Mit acht Vorträgen und 80 Teilnehmern fand das Pentaho User Meeting zum 6. Mal in der Mainmetropole statt. lesen

As-a-Service-Angebote von Teradata Vantage erweitert

Analysen in Public, Private und Hybrid Clouds

As-a-Service-Angebote von Teradata Vantage erweitert

Die Analytics-Plattform Teradata Vantage soll künftig die wachsende Nachfrage nach As-a-Service-Funktionen besser bedienen. Neben AWS-Unterstützung ist nun auch eine hybride Lösung für den Einsatz vor Ort verfügbar. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44477081 / Definitionen)