Suchen

Definition Was ist ein Decision Tree?

| Autor / Redakteur: Dipl.-Ing. (FH) Stefan Luber / Nico Litzel

Ein Decision Tree ist ein baumartiges, gerichtetes Diagramm zur Entscheidungsfindung. Es besteht aus Wurzel, Knoten, Ästen und Blättern. Die Knoten bilden die entscheidungsabhängigen Verzweigungspunkte. Typischer Einsatzbereich der Decision Trees sind Klassifizierungsaufgaben. Aus vielen einzelnen Decision Trees lassen sich Entscheidungswälder wie der Random Forest bilden.

Firma zum Thema

(Bild: © aga7ta - stock.adobe.com)

Ins Deutsche übersetzt bedeutet Decision Tree „Entscheidungsbaum“. Es handelt sich um ein mathematisches Modell und Diagramm, mit dessen Hilfe sich Entscheidungen finden lassen. Das hierarchische Diagramm ist baumartig aufgebaut und stellt einen gerichteten Entscheidungsweg dar. Es besteht aus Wurzel, Knoten, Ästen und Blättern.

Die Knoten repräsentieren die entscheidungsabhängigen Verzweigungspunkte und führen über die Äste in die nächste Entscheidungsebene. Bei Richtig-Falsch-Entscheidungen oder binären Entscheidungsknoten wird in zwei Äste aufgezweigt. Die Anzahl der Entscheidungsebenen kann von Decision Tree zu Decision Tree unterschiedlich sein. Den Abschluss bildet die Ergebnisebene.

Decision Trees kommen in vielen Bereichen zum Einsatz. Typische Aufgaben sind die Klassifikation von Datenobjekten oder die anschauliche Darstellung von Regeln auf Basis eines vorhandenen Wissens. Vorteil des Decision Trees ist, dass Entscheidungswege anschaulich und nachvollziehbar darstellbar sind. Aus vielen einzelnen Entscheidungsbäumen lassen sich sogenannte Entscheidungswälder wie ein Random Forest bilden. Der Random Forest ist ein Klassifizierungs- und Regressionsalgorithmus, der für Verfahren des überwachten Lernens im Umfeld des Machine Learnings (ML) und der Künstlichen Intelligenz (KI) genutzt wird.

Bestandteile, Aufbau und Funktionsweise eines Decision Trees

Der Aufbau eines Decision Trees ist hierarchisch. Er beginnt mit einem initialen Wurzelknoten, der abhängig von der Anzahl der möglichen Entscheidungen in mehrere nachfolgende Äste aufteilt. Es schließen sich unterschiedlich viele Entscheidungsebenen mit Knoten an, die den Decision Tree immer weiter verzweigen. Den Abschluss bilden die Blätter, die die letztendliche Entscheidung repräsentieren. Jeder Knoten steht für eine bestimmte Entscheidungsregel. Je nach Knotentyp kann es sich um binäre Ja-Nein-Entscheidungen oder vielschichtigere Entscheidungen handeln.

Soll mithilfe eines Decision Trees eine Klassifikation erfolgen, beginnt diese immer beim Wurzelknoten. Man bewegt sich anschließend entlang der getroffenen Entscheidungen über die Äste zu den weiteren Ebenen der Entscheidungsknoten bis das Ergebnis (Blatt) erreicht ist. Der Pfad von der Wurzel über die Äste und Knoten bis zum Blatt steht für die verwendete Klassifizierungsregel. Obwohl sich ein Entscheidungsbaum sehr unterschiedlich grafisch darstellen lässt, hat sich ein bestimmte Darstellungsweise etabliert. Oft wird der Entscheidungsbaum von links nach rechts gelesen und besitzt drei verschiedene Knotentypen:

  • Entscheidungsknoten – in Form eines Quadrats dargestellt
  • Wahrscheinlichkeitsknoten – in Form eines Kreises dargestellt
  • Endknoten (Blätter) – in Form eines Dreiecks dargestellt

Wahrscheinlichkeitsknoten liefern nicht wie Entscheidungsknoten eindeutige Ergebnisse, sondern Entscheidungen nach bestimmten Wahrscheinlichkeiten. Der Endknoten zeigt das Ergebnis der aufeinander folgenden, von links nach rechts ablaufenden Entscheidungen.

Anwendungsbereiche des Decision Trees

Decision Trees übernehmen in der Regel die Automatisierung von Klassifizierungsaufgaben und sind für viele Anwendungsbereiche nutzbar. In zahlreichen Software-Anwendungen sind Entscheidungsbäume implementiert. Sie bilden einen elementaren Bestandteil der Programmlogik. Typische Einsatzbereiche für Decision Trees sind:

  • betriebswirtschaftliche Anwendungen
  • statistische Anwendungen
  • medizinische Anwendungen
  • Data Mining
  • Machine Learning und Künstliche Intelligenz
  • Wahrscheinlichkeitslehre und Stochastik

Einsatz von Decision Trees in Entscheidungswäldern wie dem Random Forest

Jeder Decision Tree beantwortet genau eine grundlegende Klassifizierungsaufgabe. Um komplexere Fragestellungen abzubilden und die Qualität der Klassifizierung zu erhöhen, lassen sich viele einzelne Entscheidungsbäume zu einem sogenannten Entscheidungswald, auch Decision Forest genannt, kombinieren. Jeder Decision Tree für sich muss in einem Entscheidungswald keine perfekte Klassifizierung liefern. Durch die geschickte Kombination der Entscheidungen vieler Decision Trees entsteht eine optimierte Klassifizierung. Die Klassifizierung ist allerdings nicht mehr auf den ersten Blick nachvollziehbar wie bei einem einzelnen Entscheidungsbaum.

Entscheidungswälder lassen sich mit verschiedenen Techniken und Methoden wie Bagging, Boosting oder Arcing generieren. Decision Forrests bilden für viele Abläufe des Maschinellen Lernens die Grundlage. Ein häufig genutzter Typ des Decision Forest ist der Random Forest. Die deutsche Übersetzung für Random Forest lautet „zufälliger Wald“ oder „Zufallswald“. Der Algorithmus eines Random Forest ist relativ einfach aufgebaut, erzielt aber im Maschinellen Lernen sehr gute Trainingszeiten und Lernergebnisse für Regressions- und Klassifizierungsaufgaben.

Mithilfe von überwachten Lernverfahren und den Ergebnissen vieler einzelner Entscheidungsbäume lassen sich bestmögliche Entscheidungen finden oder Vorhersagen generieren. Die Erstellung der Entscheidungsbäume eines Random Forest erfolgt unkorreliert nach dem Zufallsprinzip.

Vorteile eines Decision Trees

  • anschauliche, leicht nachvollziehbare Darstellung der Entscheidungsfindung
  • ermöglicht die Visualisierung der Klassifizierungsregeln
  • mathematisch leicht abbildbar
  • beliebig viele Entscheidungsebenen in einem Decision Tree implementierbar
  • für viele Anwendungsbereiche nutzbar
  • einsetzbar für Methoden und Algorithmen des Maschinellen Lernens und der Künstlichen Intelligenz
  • aus vielen einzelnen Entscheidungsbäumen lassen sich Entscheidungswälder für komplexe Klassifizierungsaufgaben mit hoher Klassifizierungsgüte bilden

(ID:46659466)

Über den Autor