Definition

Was ist Big Data Analytics?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Big Data Analytics ermöglicht es, große Datenmengen aus unterschiedlichen Quellen zu analysieren. Die gewonnenen Informationen oder erkannten Muster lassen sich einsetzen, um beispielsweise Unternehmensprozesse zu optimieren.

Big Data Analytics lässt sich in einzelne Teilgebiete gliedern. Die wichtigsten davon sind:

  • Die Datenbeschaffung aus verschiedenen Quellen mithilfe von Suchabfragen,
  • die Optimierung und Auswertung der gewonnenen Daten sowie
  • die Analyse der Daten und Präsentation der Ergebnisse.

Zunächst stellt sich bei der Big Data Analytics die Aufgabe, riesige Datenmengen unterschiedlichen Formats aus verschiedenen Quellen zu erfassen und für die weitere Bearbeitung aufzuarbeiten. Dabei besteht oft die Schwierigkeit, dass die großen Datenmengen unstrukturiert und in verschiedenen Formaten vorliegen. Da solche Informationen mit herkömmlicher Datenbanksoftware kaum zu erfassen sind, kommen bei Big Data Analytics aufwendige Prozesse zur Extraktion, Erfassung und Transaktion der Daten zum Einsatz. Anschließend erfolgt die Datenanalyse mithilfe spezieller Big Data Software, die statistische Methoden wie Predictive Analytics nutzt. Im letzten Schritt werden die gewonnen Ergebnisse aufbereitet und visualisiert. Big Data Analytics bezieht sämtliche Softwareanwendungen mit ein, die für die geschilderten Prozesse zum Einsatz kommen.

Die Herausforderungen von Big Data Analytics

Damit sich großen Informationsmengen erfassen und wie gewünscht auswerten lassen, muss Big Data Analytics mehrere Herausforderungen meistern. Die verwendete Software muss sowohl in der Lage sein, viele Suchabfragen schnell durchzuführen, als auch die unterschiedlichen Datensätze in hoher Geschwindigkeit zu importieren und zu verarbeiten. In der Regel nutzen Big-Data-Analytics-Anwendungen hierfür parallele Bearbeitungsverfahren. Es existieren für Big Data Analytics quelloffene Software-Frameworks, die spezielle Big-Data-Technologien beherrschen und die Verarbeitung von riesigen Informationsmengen mithilfe von vernetzten Clustersystemen ermöglichen.

Um die Performance weiter zu erhöhen, nutzen viele Systeme im Gegensatz zu herkömmlichen Datenbankanwendungen bei der Verarbeitung nicht Festplattenspeicher, sondern den schnelleren Arbeitsspeicher. Das sorgt für höhere Zugriffsgeschwindigkeiten und ermöglicht Analysen nahezu in Echtzeit.

Big Data Analytics zur Optimierung von Unternehmensprozessen

Big Data Analytics kommt häufig im Business-Intelligence-Umfeld zum Einsatz. Ziel ist es, mit den aus der Datenanalyse gewonnenen Erkenntnissen Unternehmensabläufe zu optimieren und Vorteile gegenüber Wettbewerbern zu erzielen. Hierfür untersucht Big Data Analytics große Mengen unterschiedlicher dem Unternehmen zur Verfügung stehender Daten nach nützlichen Informationen, versteckten Mustern oder anderen Korrelationen. Herkömmliche Programme für Business Intelligence sind zu solch umfassenden Analysen riesiger Informationsmengen nicht in der Lage. Die durch Big Data Analytics gewonnenen und visualisierten Analysen liefern Ergebnisse für die Optimierung verschiedener Geschäftsprozesse. Zudem können Sie für die Unterstützung schwieriger Entscheidungsprozesse herangezogen werden.

Weitere Anwendungsbereiche von Big Data Analytics

Neben der Business Intelligence ergeben sich für Big Data Analytics eine ganze Reihe weiterer Anwendungsbereiche. Die Analyse großer Datenmengen lässt sich beispielsweise in der Verbrechensbekämpfung, im Versicherungswesen für die Risikobewertung und Anpassung von Versicherungsbeiträgen oder im Gesundheitswesen einsetzen. Weitere mögliche Anwendungsbeispiele sind die Verarbeitung von Wetterdaten, die Auswertung von Bewegungsprofilen oder die Analyse von Webstatistiken.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Tableau stellt Neuheiten auf Fachkonferenz vor

Blueprint und mehr

Tableau stellt Neuheiten auf Fachkonferenz vor

Im Rahmen seiner Fachkonferenz in Las Vegas hat Tableau unter anderem mit Blueprint eine neue Methodik zum Aufbau einer Datenkultur vorgestellt. Zudem präsentierte das Unternehmen Neuheiten rund um KI-gesteuerte Analysen und das Self-Service-Datenmanagement. lesen

In drei Schritten zur datengetriebenen Unternehmenskultur

Kommentar von Jens Puhle, Rackspace

In drei Schritten zur datengetriebenen Unternehmenskultur

Der Begriff „data-driven“ hat sich mittlerweile zu einem wahren Trend entwickelt. Aber was bedeutet das eigentlich? Wie wandeln sich Unternehmen weg von einer instinktiv getriebenen Kultur hin zu einem Mindset, das auf Daten und Erkenntnissen basiert? Worum es hier geht, sind Daten, mit denen Entscheidungsprozesse gesteuert und verbessert werden können. lesen

Datenqualität ist der größte Erfolgsfaktor

BARC-Studie zu BI-Trends

Datenqualität ist der größte Erfolgsfaktor

Das Business Application Research Center (BARC) hat sich im Rahmen des „BI Trend Monitors 2020“ mit der Frage befasst, welche Trends im Bereich Business Intelligence aktuell sind. Dabei zeigte sich auch, dass Datenqualität ein wesentlicher Erfolgsfaktor ist. lesen

Nokia und AT&T eröffnen IoT Innovation Studio

Niederlassung in München

Nokia und AT&T eröffnen IoT Innovation Studio

In München haben Nokia und AT&T gemeinsam ein IoT Innovation Studio eröffnet. Dort zeigen die beiden Unternehmen unter anderem zukunftsträchtige Anwendungen rund um das Internet der Dinge. lesen

Haben Sie noch Wünsche?

DATA STORAGE & ANALYTICS Technology Conference 2020

Haben Sie noch Wünsche?

Die DATA STORAGE & ANALYTICS Technology Conference 2020 wirft bereits ihre Schatten voraus: Die etablierte Veranstaltungsreihe macht im April und Mai 2020 Halt in vier deutschen Städten und wartet mit zahlreichen Neuerungen auf. Als besonderen Service bieten wir potenziellen Teilnehmern jetzt die Möglichkeit, aktiv in die Programmgestaltung einzugreifen! lesen

Qlik setzt auf Augmented Intelligence und die Multi-Cloud

Nachbericht Qlik Data Revolution Tour 2019

Qlik setzt auf Augmented Intelligence und die Multi-Cloud

Auf der Kundenveranstaltung „Data Revolution Tour 2019“ zeigte der BI-Anbieter Qlik die breite Palette seiner Angebote in einer Multi-Cloud-Plattform. Sie werden u. a. bei Porsche AG genutzt. An Neuheiten stellte die Forschungsleitern Elif Tutuk „Qlik Insight Bot“ und „Qlik Insight Advisor“ mit Sprachunterstützung vor. lesen

Analytics-Methoden – von deskriptiven Analysen bis Machine-Learning-Algorithmen

Algorithmen

Analytics-Methoden – von deskriptiven Analysen bis Machine-Learning-Algorithmen

Dem Datenanalysten stehen zahlreiche Methoden zur Verfügung. Der folgende Artikel erläutert einige Methoden – von statistischen, deskriptiven Methoden bis zu Supervised und Unsupervised Machine Learning. lesen

UiPath baut RPA-Plattform umfangreich aus

Nächste Generation vorgestellt

UiPath baut RPA-Plattform umfangreich aus

Der Spezialist für Enterprise Robotic Process Automation (RPA) UiPath hat die nächste Generation seiner RPA-Plattform präsentiert. Sie bietet unter anderem zahlreiche neue Funktionen für die End-to-End-Automatisierung von Prozessen und erweiterte KI-Fähigkeiten. lesen

Datenanalyse mit Projekt Cortex

Neuer Dienst in Microsoft 365 verfügbar

Datenanalyse mit Projekt Cortex

Das Projekt Cortex soll es Unternehmen ermöglichen, Daten aus Geschäftsanwendungen besser zu analysieren. Dazu wird eine KI genutzt, die Daten besser extrahieren und organisieren kann. Anwender des Unternehmens greifen über das Knowledge Center auf die Daten zu. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44477081 / Definitionen)