Definition Was ist One-Shot-Lernen?

Anbieter zum Thema

Beim One-Shot-Lernen handelt es sich um eine Methode des Machine Learnings (ML), die den Trainingsaufwand deutlich reduziert und maschinelles Lernen dem menschlichem Lernen ähnlicher macht. ML-Modelle sind dank One-Shot-Lernen in der Lage, mit nur einem (oder wenigen) Trainingsbeispielen einer bestimmten Objektklasse anschließend korrekte Klassifizierungen vorzunehmen. Typischer Einsatzbereich des One-Shot-Lernens ist die Gesichtserkennung.

(Bild: © aga7ta - stock.adobe.com )

One-Shot-Lernen ist ein Begriff aus dem Umfeld des maschinellen Lernens. Maschinelles Lernen verfolgt häufig den Ansatz, die Machine-Learning-Modelle mit möglichst vielen Beispieldaten zu trainieren, um anschließend korrekte Klassifizierungen vornehmen zu können. Ziel des One-Shot-Lernens ist es, dass die ML-Modelle mit nur einem einzigen (oder sehr wenigen) Trainingsbeispielen einer bestimmten Objektklasse lernen, bisher nicht gesehene Objekte korrekt zu klassifizieren.

Der Trainingsaufwand lässt sich mithilfe des One-Shot-Lernens deutlich reduzieren. Beispielsweise müssen keine großen Mengen an gelabelten Trainingsdaten erstellt werden. One-Shot- oder Low-Shot-Lernen (Few-Shot-Lernen) verleiht KI-Systemen Fähigkeiten, die dem menschlichen Lernen ähnlicher sind. Eine weitere Reduzierung des Trainingsaufwands ist mit dem sogenannten Zero-Shot-Lernen möglich. Zero-Shot-Lernen ist eine ML-Methode, die neue Klassen, ohne ein vorheriges Trainingsbeispiel lernen kann. Modelle können mit dem Zero-Shot-Lernen quasi Aufgaben ausführen, für die sie gar nicht trainiert wurden. Typischer Anwendungsbereich des One-Shot-Lernens ist das computerbasierte Sehen (Computer Vision). One-Shot-Lernen wird beispielsweise für die Gesichtserkennung eingesetzt.

Grundsätzliche Problemstellung des maschinellen Lernens

Ein häufig verwendeter Ansatz für maschinelles Lernen ist es, die ML-Systeme mit möglichst vielen gelabelten Beispieldaten zu trainieren. Je mehr Trainingsbeispiele den Systemen präsentiert werden, desto genauer lernen sie die verschiedenen Objektklassen, um anschließend im trainierten Zustand korrekte Klassifizierungen vorzunehmen. Ein Beispiel dafür ist der MNIST-Trainingsdatensatz. Er enthält 60.000 verschiedene Beispiele handgeschriebener Ziffern, mit denen ML-Modelle lernen, nur zehn verschiedene Ziffern zuverlässig zu unterscheiden. Der Trainingsaufwand ist hoch, da die gelabelten Trainingsdaten erstellt und die Systeme mit großem Zeit- und Rechenaufwand trainiert werden müssen. Je mehr Objektklassen im Training gelernt werden sollen, desto stärker steigt der Trainings- und Rechenaufwand.

Für komplexe Aufgaben des maschinellen Lernens ist dieser Aufwand kaum noch zu leisten. Wünschenswert wäre es, dass sich das maschinelle Lernen menschlichen Lernvorgängen ähnlicher gestalten lässt. So ist der Mensch beispielsweise in der Lage, mit wenigen Beispielen oder sogar ganz ohne vorherige Beispiele zu lernen, indem bisheriges Wissen in den Lernvorgang mit einbezogen wird. Auf das Beispiel des MNIST-Datensatzes bezogen, bedeutet One-Shot-Lernen, dass dem ML-System lediglich zehn Trainingsbilder der zehn verschiedenen Ziffern gezeigt werden müssen, um anschließend sämtliche Ziffern zuverlässig zu erkennen.

Abgrenzung One-Shot-, Low-Shot- und Zero-Shot-Lernen

One-Shot-Lernen, Low-Shot-Lernen (Few-Shot-Lernen) und Zero-Shot-Lernen sind Methoden des maschinellen Lernens und verfolgen ähnliche Zielsetzungen. Der Aufwand für das Training der Machine-Learning-Systeme und für das Erstellen von gelabelten Trainingsdaten soll reduziert werden. Gleichzeitig soll sich das maschinelle Lernen mehr den Fähigkeiten des menschlichen Lernens angleichen. Mit dem One-Shot-Lernen, Low-Shot-Lernen (Few-Shot-Lernen) und Zero-Shot-Lernen werden die ML-Systeme in die Lage versetzt, mit nur wenigen oder keinen Trainingsbeispielen neue Klassen zu erlernen und anschließen noch nicht gesehene Objekte korrekt zu klassifizieren.

Während das Low-Shot-Lernen (Few-Shot-Lernen) die Anzahl der Beispiele auf wenige reduziert, lernen ML-Systeme beim One-Shot-Lernen mit möglichst nur einem einzigen Trainingsbeispiel eine neue Klasse. One-Shot-Lernen muss allerdings nicht zwingend auf ein einziges Trainingsbeispiel beschränkt sein. Unter den Begriff One-Shot-Lernen fällt in der Regel auch das Trainieren mit sehr wenigen Beispielen einer Objektklasse. Beim Zero-Shot-Lernen geht man noch einen Schritt weiter. Die ML-Systeme können Objekte korrekt klassifizieren, für die sie im Training gar keine Beispiele gesehen haben. Dadurch erhalten ML-Modelle im Grunde genommen Fähigkeiten, Aufgaben zu lösen, für die sie gar nicht trainiert wurden oder gar keine Trainingsbeispiele erhalten haben.

Prinzipielle Funktionsweise des One-Shot-Lernens

Für das One-Shot-Lernen existieren zahlreiche verschiedene theoretische wie praktische Ansätze und Methoden, mit denen sich die Anzahl der Trainingsbeispiele für das Erlernen einer neuen Klasse auf ein oder sehr wenige Beispiele reduzieren lässt. Diese im Detail zu erklären, sprengt den Rahmen dieser Definition. Grundsätzlich gelingt das One-Shot-Lernen durch sogenanntes Meta-Lernen. Die ML-Systeme lernen quasi, wie sie lernen, eine Aufgabe zu lösen. So erkennen die Systeme beispielsweise Muster in den Trainingsdaten, mit denen sich auf bisher nicht oder nur wenig gezeigt Klassen schließen lässt. Ähnlichkeiten bereits erlernter Klassen werden verglichen, abgegrenzt und kombiniert. Je nach Ansatz werden semantische Attribute und Zwischenschichten beachtet oder global vorhandenes Wissen in den Lernvorgang einbezogen. Die Systeme generieren neues Wissen durch ihr bestehendes Wissen und durch die Verarbeitung nur weniger Beispiele.

(ID:48408276)