Definition

Was ist Data Mining?

| Autor / Redakteur: Tutanch / Nico Litzel

(© aga7ta - Fotolia)

Data Mining ist die systematische Anwendung computergestützter Methoden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren unter anderem auf statistischen Methoden.

Data Mining ist interdisziplinär und nutzt Erkenntnisse aus den Bereichen der Informatik, Mathematik und Statistik zur rechnergestützten Analyse von Datenbeständen. Es kommen unter anderem Verfahren der künstlichen Intelligenz zum Einsatz, um große Datenbestände hinsichtlich neuer Querverbindungen, Trends oder Muster zu untersuchen. Oft wird der Begriff Data Mining synonym zu „Knowledge Discovery in Databases“ (im Deutschen „Wissensentdeckung in Datenbanken“) verwendet, obwohl es sich im eigentlichen Sinn nur um einen Teilbereich der Knowledge Discovery in Databases handelt. Data Mining extrahiert die Zusammenhänge automatisch und stellt sie übergeordneten Zielen zur Verfügung. Die erkannten Muster können dazu beitragen, die Entscheidungsfindung bei bestimmten Problemen zu erleichtern.

Aufgaben des Data Minings

Die für das Data Mining angewandten Methoden haben jeweils definierte Ziele und werden einzelnen Aufgaben zugeordnet. Diese Aufgaben lassen sich beispielsweise in folgende Einzelbereiche aufteilen:

  • Klassifikation
  • Segmentierung
  • Prognose
  • Abhängigkeitsanalyse
  • Abweichungsanalyse

Die Klassifikation ordnet bestimmte Klassen einzelnen Datenobjekten zu. Bei der Segmentierung werden Objekte mit gemeinsamen Merkmalen zu Gruppen zusammengefasst. Alle Objekte einer Gruppe sollen dadurch möglichst homogen sein. Als Prognose bezeichnet man die Vorhersage von bisher unbekannten Merkmalen auf Basis von anderen Merkmalen oder zuvor gewonnener Erkenntnisse. Mit der Abhängigkeitsanalyse lassen sich Beziehungen zwischen einzelnen Merkmalen eines Objekts oder zwischen verschiedenen Objekten finden. Die Abweichungsanalyse schließlich identifiziert Objekte, die den Regeln der Abhängigkeiten anderer Objekte nicht entsprechen. Dadurch lassen sich die Ursachen für die Abweichungen finden.

Data Mining und Big Data

Oft werden die Begriffe Big Data und Data Mining im gleichen Kontext verwendet. Es ist jedoch wichtig, die beiden Begriffe sauber voneinander zu trennen. Big Data befasst sich mit besonders großen Datenmengen, die sich mit den herkömmlichen Methoden und Tools nicht effizient und in vertretbarem zeitlichem Rahmen verarbeiten lassen. Data Mining kommt zwar häufig bei großen Datenmengen zum Einsatz, ist aber nicht auf Big Data beschränkt. Das Data Mining beschreibt den eigentlichen Vorgang der Analyse von Daten in Bezug auf relevante Zusammenhänge und Erkenntnisse und kann auch auf kleiner Datenbasis zur Anwendung kommen. Während Big Data große Datenmengen liefert und die geeignete technische Plattform für eine effiziente Verarbeitung zur Verfügung stellt, kümmert sich das Data Mining um den eigentlichen Vorgang der Gewinnung von Erkenntnissen aus den vorliegenden Daten. Data Mining verwendet hierfür Algorithmen aus der Statistik und Verfahren der künstlichen Intelligenz. Durch die enormen Fortschritte im Bereich der Big-Data-Technologien sowie günstigerer und leistungsfähigerer Hardware für die Nutzung von umfangreichen strukturierten und unstrukturierten Datenmengen können Data Mining und Big Data immer bessere Ergebnisse mit höherer Relevanz liefern.

Anwendungsbeispiele für das Data Mining

Data Mining kommt schon heute in vielen Bereichen zum Einsatz und bietet enorme Anwendungspotenziale für die Zukunft. Anwendungen sind beispielsweise im Marketing, im Finanz- und Versicherungswesen, im Onlinehandel, in der Verbrechensbekämpfung oder in der Medizin zu finden. Branchenübergreifend sind die Anwendungen im Marketing und im Customer Relationship Management (CRM). Banken und Versicherungen nutzen Data Mining, um Risikoanalysen durchzuführen. Im Handel ermöglicht das Data Mining, das Kaufverhalten von Kunden zu analysieren und zwischen zahlungsfähigen und zahlungsunfähigen Kunden zu unterscheiden.

Text Mining als Sonderform des Data Mining

Das sogenannte Text Mining stellt eine Sonderform des Data Minings dar. Es teilt die grundsätzlichen Verfahren des Data Minings zur Informationsgewinnung, wird aber nicht auf strukturierte Daten, sondern auf hauptsächlich unstrukturierte Textdaten angewandt. Mithilfe des Text Minings lässt sich Wissen aus Textdaten extrahieren. Dem Anwender werden automatisch die Kernaussagen von großen Textmengen geliefert, ohne dass ein detailliertes Befassen mit den einzelnen Texten notwendig ist. Beispielsweise können große Mengen von Fachartikeln mit dem Text Mining nach Informationen untersucht werden, die für eigene Projekte von Relevanz sind. Da ein hoher Prozentsatz aller Informationen in einem Unternehmen in Textform vorliegt, stellt das Text Mining eine wichtige und nicht zu unterschätzende Sonderform des Data Minings dar.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

So können sich Unternehmen jetzt schon auf Quantencomputing vorbereiten

Kommentar von Dr. Sebastian Feld, Ludwig-Maximilians-Universität

So können sich Unternehmen jetzt schon auf Quantencomputing vorbereiten

Seit einiger Zeit liefern sich Akteure aus Forschung und Wirtschaft einen Wettlauf um die Quantentechnologie, an dessen Ende die Revolution der Informationstechnik stehen soll. An den Forschungsprojekten sind oft große Konzerne oder ganze Staatengemeinschaften beteiligt, wie etwa die EU mit ihrem kürzlich gestarteten „OpenSuperQ“. Doch was erhofft man sich vom Quantencomputing und wie können sich der Mittelstand und KMUs auf die neue Technologie vorbereiten? lesen

Künstliche Intelligenz als Chance und Risiko

Nachbericht SAS Analytics Experience 2018

Künstliche Intelligenz als Chance und Risiko

Auf der internationalen Kundenkonferenz „Analytics Experience“ stellte Analytics-Spezialist SAS kürzlich in Mailand die Möglichkeiten in den Vordergrund, mit denen sich Künstliche Intelligenz für innovative Geschäftsmodelle nutzen lässt. lesen

Wie verändert KI unsere Wirtschaft?

Münchner DIGICON 2018

Wie verändert KI unsere Wirtschaft?

Der Verein „Digitale Stadt München“ e. V. lädt in Zusammenarbeit mit dem Lehrstuhl Mobile & Verteilte Systeme der LMU München zu einer zweitägigen Veranstaltung für digitale Entscheider, Gründer und KMUs ein. lesen

Die wichtigsten Big-Data-Technologien

Überblick

Die wichtigsten Big-Data-Technologien

Big-Data-Anwendungen basieren nicht auf einer einzigen Technologie, sondern sind im Grunde ein Zusammenspiel verschiedener Innovationen. Dafür reichen jedoch herkömmliche Technologien wie zum Beispiel klassische Datenbanken, Data Warehouse- oder Reporting-Lösungen bei weitem nicht aus. lesen

Software AG stellt Nyoka vor

Quelloffene Bibliothek

Software AG stellt Nyoka vor

Mit Nyoka hat die Software AG eine Open-Source-Bibliothek für Künstliche Intelligenz (KI), Machine Learning (ML) und Predictive Analytics vorgestellt. Sie ist für den Einsatz durch Datenwissenschaftler konzipiert. lesen

Mit Künstlicher Intelligenz profitable Geschäfte machen

Mensch, Prozesse, Technologie

Mit Künstlicher Intelligenz profitable Geschäfte machen

Der erfolgreiche Einsatz Künstlicher Intelligenz im Unternehmen beginnt mit Menschen und Geschäftsprozessen – erst danach kommt die Technologie. Vor der Einführung entsprechender Lösungen sollten Führungskräfte eine Vision entwickeln, wie KI ein profitables Geschäft antreiben kann. lesen

Diese neuen Jobs bringt die Digitalisierung

Von CDO über Cloud und Blockchain Architect bis Data Scientist

Diese neuen Jobs bringt die Digitalisierung

Essenziell für den Erfolg des digitalen Wandels im Unternehmen sind qualifizierte Mitarbeiter. Daher steigt die Nachfrage nach entsprechendem Fachpersonal weiter an, doch auch immer mehr neue Jobprofile sind gefragt: Chief Digital Officers oder – allen voran – Data Scientists sind auf dem Vormarsch. lesen

BARC vergleicht Enterprise-BI- und Analytics-Plattformen

Score bewertet 20 Hersteller

BARC vergleicht Enterprise-BI- und Analytics-Plattformen

Das Business Application Research Center (BARC) hat seinen „BARC Score Enterprise BI and Analytics Platforms“ in vierter Ausgabe auf den Markt gebracht. Der Score vergleicht und bewertet insgesamt 20 Hersteller von BI- und Analytics-Plattformen. lesen

So verfeinert das Bayes-Theorem Spam-Filter – und mehr

Grundlagen Statistik & Algorithmen, Teil 2

So verfeinert das Bayes-Theorem Spam-Filter – und mehr

Mithilfe des Satzes von Bayes lassen sich Parameter schätzen und Hypothesen induktiv testen. In einem Spamfilter können so wahrscheinliche Spam-Mails ermittelt werden. Und aus den Symptomen, die bei einem bekannten Test auftreten, lassen sich wahrscheinliche Krankheitsursachen aufspüren. Der Satz von Bayes, der bedingte Wahrscheinlichkeiten beschreibt, ist also ein nahezu universell nutzbares Werkzeug der Statistik. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44596623 / Definitionen)