Definition Was ist ein Perzeptron?

Autor / Redakteur: Dipl.-Ing. (FH) Stefan Luber / Nico Litzel |

Das Perzeptron ist ein mathematisches Modell eines künstlichen neuronalen Netzwerks. Es besteht in der einfachsten Form aus einem Neuron, dessen Ausgangsfunktion durch die Gewichtung der Eingänge und durch Schwellwerte bestimmt wird. Ein Perzeptron kann für maschinelles Lernen und Anwendungen der Künstlichen Intelligenz (KI) eingesetzt werden.

Anbieter zum Thema

(Bild: © aga7ta - stock.adobe.com)

Das Perzeptron wurde von Frank Rosenblatt entwickelt und im Jahr 1958 vorgestellt. Es handelt sich um ein mathematisches Modell eines künstlichen neuronalen Netzes. In der einfachsten Variante besteht das Perzeptron aus einem einzigen Neuron mit einem Ausgang und mehreren Eingängen. Die Ausgangsfunktion, ob 0 oder 1, wird durch die Gewichtung der Eingänge und durch Schwellwerte bestimmt. Das Lernen verändert die Gewichtungen.

Grundsätzlich ist eine Unterscheidung zwischen dem einlagigen und dem mehrlagigen Perzeptron möglich. Mehrlagige Perzeptren bestehen aus Neuronen in unterschiedlichen Lagen, die untereinander vernetzt sind. Durch das Trainieren von Perzeptren mit bestimmten Eingabemustern lassen sich anschließend ähnliche Muster in den zu analysierenden Datenmengen finden. Es handelt sich beim Trainieren des Perzeptrons um sogenanntes überwachtes Lernen. Die Trainingsdaten müssen hierfür zu validen Ergebnissen führen. Das mathematische Modell des Perzeptrons ist mit relativ geringem Aufwand in verschiedene Programmiersprachen übersetzbar. Typische Anwendungen sind die Analyse von Messdaten oder die Bilderkennung.

Grundsätzliches Funktionsprinzip des Perzeptrons

Ein Perzeptron besteht aus einem Neuron mit einer binären Ausgabe. Der Ausgang kann zwei Zustände annehmen: aktiv (1) oder inaktiv (0). Ist der Ausgang des Perzeptrons aktiv, nennt man dies auch „das Perzeptron oder das Neuron feuert“. Um den Zustand am Ausgang zu erzeugen, besitzt das Perzeptron mehrere Eingänge. Die Eingänge haben eine bestimmte veränderbare Gewichtung. Wird ein gesetzter Schwellwert durch die Gewichtungen aller Eingänge über- oder unterschritten, verändert sich der Zustand des Neuronenausgangs. Durch das Trainieren eines Perzeptrons mit vorgegebenen Datenmustern verändert sich die Gewichtung der Eingänge.

Das Lernen beruht auf der Anpassung der Gewichtungen. Damit ein Perzeptron tatsächlich so trainiert werden kann, dass es valide Ergebnisse erzielt, müssen die Daten linear trennbar sein. Unter linear trennbar versteht man die Eigenschaft, dass die in einem Diagramm dargestellten Daten durch eine Linie trennbar sind und diese Linie sie einem bestimmten Ergebnis oder Muster zuordnet.

Komplexe mehrlagige Perzeptren sind in der Lage, kompliziertere Trennlinien und Trennflächen zu finden. Eine grafische Trennbarkeit muss aber immer gegeben sein. Das Perzeptron findet die Trennlinien nach einer endlichen Anzahl von Lernschritten. Ein trainiertes Perzeptron kann Daten klassifizieren, die von den Mustern der Lerndaten leicht abweichen.

Einlagige und mehrlagige Perzeptren

Während einlagige Perzeptren nur aus einer einzigen Schicht künstlicher Neuronen mit Eingabevektoren und Ausgängen bestehen, sind bei mehrlagigen Perzeptren Neuronen in mehreren Schichten vorhanden und untereinander vernetzt. Neuronen der gleichen Schicht haben keine Verbindungen untereinander. Der Ausgang eines Neurons fungiert als Eingabevektor eines Neurons der nächsten Schicht. Je mehr Schichten in den Perzeptren vorhanden sind, desto vielfältiger sind die Klassifizierungsfähigkeiten des neuronalen Netzes. Kann beispielsweise ein einlagiges Perzeptron nur eine lineare Trennlinie zur Separierung der Daten finden, ist das zweilagige Perzeptron dazu fähig, Klassifizierungs-Polygone zu identifizieren. Durch das Hinzufügen einer weiteren Neuronen-Schicht lassen sich komplexere Klassifizierungsformen aus den Polygonen bilden.

Typische Topologien mehrlagiger Perzeptren sind:

  • Feedforward-Netze: Es existiert eine Vorwärtsverknüpfung aller Neuronen einer Schicht mit den Neuronen der nächsten Schicht.
  • Netze mit Shortcuts: Alle Neuronen einer Schicht sind mit allen Neuronen der nächsten Schicht verbunden und es existieren Verbindungen zu Neuronen der übernächsten Schicht (sogenannte Abkürzungen oder Shortcuts).

Die Funktion der Bias-Neuronen

In einigen mehrlagigen Perzeptren kommen Bias-Neuronen zum Einsatz. Es handelt sich um Neuronen ohne Eingänge mit einem konstanten Wert. Diese Neuronen lassen sich jeder Schicht hinzufügen und sind mit dem Eingang eines Neurons der nächsten Schicht verbunden. Sie können durch ihren eigenen Ausgangswert und die Gewichtung des Eingangs des nächsten Neurons dessen Ausgang beeinflussen.

Anwendungsbeispiele

Neuronale Netzwerke, basierend auf Perzeptren, sind für viele Anwendungen der Künstlichen Intelligenz und des maschinellen Lernens einsetzbar. Beispielhafte Anwendungen sind:

  • die Analyse von Wetterdaten
  • die Analyse von Mess- und Sensordaten
  • die Analyse von Aktienkursen und Wirtschaftsdaten
  • die Realisierung von Frühwarnsystemen
  • die Klassifizierung von Krebszellen mittels Bildanalyse
  • die Analyse und Vorhersage von Sport- oder Wettergebnissen
  • die Handschrifterkennung
  • die Früherkennung epileptischer Anfälle anhand von EEG-Signalen

(ID:45735857)