Definition

Was ist Deep Learning?

| Autor / Redakteur: Tutanch / Nico Litzel

(© aga7ta - Fotolia)

Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze sowie große Datenmengen. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und resultieren in der Fähigkeit eigener Prognosen oder Entscheidungen.

Beim sogenannten Deep Learning handelt es sich um eine spezielle Methode der Informationsverarbeitung. Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze. Zur Herstellung künstlicher Intelligenz werden Trainingsmethoden genutzt, die große Datenmengen heranziehen und analysieren. Die Funktionsweise ist in vielen Bereichen vom Lernen im menschlichen Gehirn inspiriert. Auf Basis vorhandener Informationen und des neuronalen Netzes kann das System das Erlernte immer wieder mit neuen Inhalten verknüpfen und dadurch erneut lernen. Daraus resultierend ist die Maschine in der Lage, Prognosen oder Entscheidungen zu treffen und diese zu hinterfragen. Entscheidungen werden bestätigt oder in einem neuen Anlauf geändert. In der Regel greift der Mensch beim eigentlichen Lernvorgang nicht mehr ein.

Deep Learning eignet sich für alle Anwendungen besonders gut, bei denen große Datenbestände zur Verfügung stehen, aus denen sich Muster und Modelle ableiten lassen. Als technische Grundlage des Deep Learnings dienen künstliche neuronale Netze, die während des Lernvorgangs immer wieder neu verknüpft werden.

Neuronale Netze – Grundlage für das Deep Learning

Das neuronale Netz ist eine Art künstliches Abstraktionsmodell des menschlichen Gehirns und besteht aus künstlichen Neuronen. Es verfügt über sogenannte Eingangs- und Ausgangsneuronen. Dazwischen befinden sich mehrere Schichten an Zwischenneuronen. Die Eingangsneuronen lassen sich durch Lernen auf verschiedenen Wegen über die Zwischenneuronen mit den Ausgangsneuronen verknüpfen. Je mehr Neuronen und Schichten existieren, desto komplexere Sachverhalte lassen sich abbilden.

Das grundlegende Konzept des Deep Learnings

Deep Learning lehrt Maschinen zu lernen. Die Maschine wird in die Lage versetzt, selbstständig und ohne menschliches Zutun ihre Fähigkeiten zu verbessern. Das erreicht man, indem aus vorhandenen Daten und Informationen Muster extrahiert und klassifiziert werden. Die gewonnenen Erkenntnisse lassen sich wiederum mit Daten korrelieren und in einem weiteren Kontext verknüpfen. Schließlich ist die Maschine fähig, Entscheidungen auf Basis der Verknüpfungen zu treffen.

Durch kontinuierliches Hinterfragen der Entscheidungen erhalten die Informationsverknüpfungen bestimmte Gewichtungen. Bestätigen sich Entscheidungen, erhöht sich deren Gewichtung, werden sie revidiert, verringert sich die Gewichtung. Zwischen der Eingabeschicht und der Ausgabeschicht entstehen immer mehr Stufen an Zwischenschichten und Verknüpfungen. Über den eigentlichen Output entscheidet die Anzahl der Zwischenschichten und deren Verknüpfung.

Abgrenzung des Deep Learnings vom rein maschinellen Lernen

Deep Learning ist zwar ein Teilbereich des Machine Learnings, lässt sich aber dennoch gut vom rein maschinellen Lernen abgrenzen. Der entscheidende Unterschied besteht darin, dass beim maschinellen Lernen der Mensch in die Analyse der Daten und den eigentlichen Entscheidungsprozess eingreift. Beim Deep Learning sorgt der Mensch lediglich dafür, dass die Informationen für das Lernen bereitstehen und die Prozesse dokumentiert sind. Die eigentliche Analyse und das Ableiten von Prognosen oder Entscheidungen überlässt er der Maschine selbst. Der Mensch hat keinen Einfluss auf die Ergebnisse des Lernprozesses. Es lässt sich im Nachhinein nicht mehr vollständig zurückverfolgen, auf Basis welcher genauen Muster eine Maschine eine bestimmte Entscheidung getroffen hat. Zudem werden die Entscheidungen ständig hinterfragt und die Entscheidungsregeln selbstständig optimiert.

Anwendungsbereiche für das Deep Learning

Deep Learning ist überall dort gut geeignet, wo sich große Datenmengen nach Mustern und Modellen untersuchen lassen. Deep Learning kommt daher im Rahmen künstlicher Intelligenz häufig für die Gesichts-, Objekt- oder Spracherkennung zum Einsatz. Bei der Spracherkennung ist es beispielsweise dank des Deep Learnings möglich, dass die Systeme ihren Wortschatz selbstständig mit neuen Wörtern oder Wortwendungen erweitern. Ein bekanntes Beispiel für eine solche Arbeitsweise ist der intelligente Sprachassistent Siri von Apple. Weitere Anwendungsbereiche sind das Übersetzen von gesprochenen Texten, die erweiterte künstliche Intelligenz in Computerspielen, das autonome Fahren oder die Vorhersage des Kundenverhaltens auf Basis von Daten eines CRM-Systems.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

KI braucht neue Prozessoren

Gartner zu Chips für Künstliche Intelligenz

KI braucht neue Prozessoren

Anlässlich der Fachmesse Electronica gab Gartner einen Ausblick auf die durch Künstliche Intelligenz (KI) und Deep Learning ausgelösten Entwicklungen auf dem Hardwaremarkt. Fazit: Eine neue Gründungswelle kommt ins Rollen, denn der Standard-Prozessorchip hat auf diesem Gebiet ausgedient. lesen

Deep Learning mit Python und Keras

Rezension

Deep Learning mit Python und Keras

Deep Learning ist in aller Munde. Doch wie es wirklich funktioniert, das wissen nur wenige genau. Eine Einführung in das Thema versucht jetzt damit aufzuräumen und gleichzeitig erste Ansätze für eine praktische Umsetzung der Konzepte mit der Keras-Bibliothek zu liefern. lesen

Sicherheit durch intelligente Analytics-Anwendungen

Künstliche Intelligenz und Machine Learning

Sicherheit durch intelligente Analytics-Anwendungen

Wenn nachts die Alarmanlage unseres Autos losheult, sind wir in Nullkommanichts auf den Beinen. Oft genug ist es falscher Alarm, aber deswegen werden wir ihn noch lange nicht ignorieren. Auch IT-Systeme sind sich oft nicht sicher, ob sie tatsächlich bedroht werden. Analytics-Systeme mit selbstlernenden Funktionen helfen ihnen bei der Entscheidung. lesen

Optimale Clusteranalyse und Segmentierung mit dem k-Means-Algorithmus

Grundlagen Statistik & Algorithmen, Teil 5

Optimale Clusteranalyse und Segmentierung mit dem k-Means-Algorithmus

Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind, so etwa in der Bildverarbeitung und in der Kundensegmentierung. lesen

KI im produzierenden Gewerbe – wo steht Deutschland?

Kommentar von Dr. Inessa Seifert, PAiCE

KI im produzierenden Gewerbe – wo steht Deutschland?

Ob Deep Learning, maschinelles Lernen oder Predicitve Analytics: Künstliche Intelligenz (KI) gilt als künftige Schlüsseltechnologie der Digitalisierung und ihr wird ein dementsprechend hohes volkswirtschaftliches Potenzial zugeschrieben – auch im produzierenden Gewerbe. lesen

Wie Unternehmen Data Science für sich nutzen können

Die Arbeit eines Data Scientist

Wie Unternehmen Data Science für sich nutzen können

Ob von Menschen oder Maschinen: Heutzutage werden alle Daten gesammelt. Der Umfang und die Vielfalt der erfassten Daten sind enorm. Solche Daten können wie „Goldnuggets“ sein: In ihnen stecken Informationen, die Geschäftsentscheidungen beeinflussen können. Es sind Experten gefragt, die aus den Daten die entscheidenden Informationen extrahieren, um genau dieses Potenzial zu erforschen. lesen

Künstliche Intelligenz als Chance und Risiko

Nachbericht SAS Analytics Experience 2018

Künstliche Intelligenz als Chance und Risiko

Auf der internationalen Kundenkonferenz „Analytics Experience“ stellte Analytics-Spezialist SAS kürzlich in Mailand die Möglichkeiten in den Vordergrund, mit denen sich Künstliche Intelligenz für innovative Geschäftsmodelle nutzen lässt. lesen

Python-Bibliothek soll KI-Entwicklung vereinfachen

FastAi

Python-Bibliothek soll KI-Entwicklung vereinfachen

Das Start-up FastAi hat eine speziell auf Deep Learning abzielende Python-Bibliothek angekündigt. Die unter Open-Source-Lizenz veröffentlichte Library soll Entwicklern die Aufgabe erleichtern, funktionale Künstliche Intelligenz zu entwickeln. lesen

Künstliche Intelligenz in der Medizintechnik

Artificial Intelligence

Künstliche Intelligenz in der Medizintechnik

Wie kann Künstliche Intelligenz die Arbeit des Mediziners verbessern und die Qualität der Diagnostik steigern? Im Rahmen einer Fachtagung beleuchteten Mediziner und Informatiker das Trendthema und zeigten praktische Beispiele aus der Anwendung. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44659369 / Definitionen)