Maschinelles Lernen & Künstliche Intelligenz So kann die Industrie jetzt schon von KI profitieren

Dr. Jan Paulus und Matthias Weidler * |

Anbieter zum Thema

Große Datenmengen lassen sich mit Künstlicher Intelligenz (KI) und Maschinellem Lernen auswerten. Wir zeigen Möglichkeiten, eine KI anzuwenden und umzusetzen.

Künstiche Intelligenz und Maschinelles Lernen sollen in der Industrie helfen, große Datenmengen auszuwerten.
Künstiche Intelligenz und Maschinelles Lernen sollen in der Industrie helfen, große Datenmengen auszuwerten.
(Bild: / CC0)

Digitalisierung, Internet of Things und Industrie 4.0 – hinter all diesen Begriffen steht eine Entwicklung, bei der Maschinen oder Geräte Daten erfassen, Daten verarbeiten und intelligent auf Daten anderer Maschinen reagieren. Fertigungsprozesse können so beispielsweise effizient gesteuert und überwacht werden. Möglich wird das durch Daten von Sensoren, wie Temperatursensoren, Drucksensoren, Durchflussmengenmesser und optischen Sensoren, die sich in Maschinen befinden oder auch abstrakte Daten beispielsweise aus dem Auftragseingang.

Daten zu erfassen ist nur dann sinnvoll, wenn diese Daten auch ausgewertet werden. Die gewonnenen Daten sollen automatisch, schnell, intelligent und vor allem zuverlässig verarbeitet werden. Hierzu drängen sich Begriffe wie Künstliche Intelligenz oder Maschinelles Lernen geradezu auf. Aber welchen Mehrwert bieten solche Entwicklungen? Doch was steckt hinter den Buzzwords? Und wie beschreite ich den Weg zur KI-Lösung? Unser Beitrag soll einen kurzen Überblick über Anwendungs- und Umsetzungsmöglichkeiten bieten.

Künstliche Intelligenz in der Industrie

Zunächst sollte man sich bewusst machen, in welchem Rahmen man die KI-Lösung nutzen will und mit welchem Mehrwert der Einsatz verbunden ist. Es lassen sich dabei primär drei Bereiche identifizieren, in denen KI in der Industrie zum Einsatz kommen kann. Bei der Erkennung bzw. Klassifikation werden Daten genutzt, um Objekte oder Prozesse automatisch bestimmten Kategorien bzw. Klassen zuzuordnen. Ein Beispiel ist, automatisch Bildinhalte zu erkennen, wichtige Ereignisse detektieren oder die Qualitätskontrolle, bei der Produktionsfehler automatisch festgestellt werden.

Der zweite Bereich ist die Vorhersage, beispielsweise von Maschinenausfällen, Auslastungen oder Marktpreisen. Auch Kaufempfehlungen, wie „Kunden, die Produkt X gekauft haben, interessierten sich auf für Y“, und die damit zusammenhängende Bewertung der Bonität. Im Rahmen der Analyse werden statistische Verfahren genutzt, um bisher unbekannte Zusammenhänge zwischen Daten aufzudecken oder im Nachhinein die Ursachen für unerwartete Ereignisse zu suchen.

Expertensysteme und das Wissen menschlicher Experten

Bild 1: Zwei Merkmale (Sensor 1 und 2) beschreiben Daten, die unterschiedlichen Kategorien (Kreuz und Kreis) zugeordnet sind. In diesem Fall ist es für einen Experten möglich, eine Entscheidungsgrenze (schwarz) manuell festzulegen. Oft werden die Daten aber durch deutlich mehr Merkmale beschrieben, die in sich komplexe Abhängigkeiten haben. Maschinelles Lernen ist eine Möglichkeit, dieser Komplexität zu begegnen.
Bild 1: Zwei Merkmale (Sensor 1 und 2) beschreiben Daten, die unterschiedlichen Kategorien (Kreuz und Kreis) zugeordnet sind. In diesem Fall ist es für einen Experten möglich, eine Entscheidungsgrenze (schwarz) manuell festzulegen. Oft werden die Daten aber durch deutlich mehr Merkmale beschrieben, die in sich komplexe Abhängigkeiten haben. Maschinelles Lernen ist eine Möglichkeit, dieser Komplexität zu begegnen.
(Bild: Astrum IT)

Bei der dritten Einsatzform, der Analyse, wird Künstliche Intelligenz bereits heute genutzt – allerdings häufig eher in Form von statischen, wissensbasierten Systemen, sogenannten Expertensystemen. Das ist ein Teilgebiet der KI. Normalerweise wird in diesem Zusammenhang Wissen von Experten, welche die Daten sehr genau kennen, in Code gegossen und daraufhin ein Programm geschrieben. Auf dieser Grundlage kann ein Entscheidungsbaum abgearbeitet werden. Das ist dann eine Folge von verschachtelten if-else-Blöcken, in denen Schwellwerte von verschiedenen Sensoren abgeprüft werden. Die Schwellwerte leiten sich aus dem Wissen der Experten und deren Erfahrung ab.

Sollte das System sich in bestimmten Fällen nicht wie gewünscht verhalten, so prüft man mithilfe der Experten die zugrundeliegenden Daten und überdenkt die Schwellwerte und die verwendeten Kennzahlen. Die Experten lernen an dieser Stelle dazu und veranlassen Programmänderungen entsprechend ihres neuen Wissens. Dieses Vorgehen ist ideal für Problemstellungen, bei denen die Komplexität der Daten gering ist (Bild 1) und es lediglich eine überschaubare Anzahl von Sonderfällen gibt. Zudem reagiert das System für diese Fälle normalerweise wie erwartet, da die Entscheidung der eines Experten per Definition nachempfunden ist. Diese Art von KI-System ist auch dann möglich, wenn nur wenige Daten vorhanden sind, da fehlende Daten durch die Erfahrung des Experten ausgeglichen werden.

Tatsächlich werden beispielsweise Vorgänge in der Produktion immer komplexer, sodass es immer aufwendiger wird, alle denkbaren Normal- und Fehlerfälle zu berücksichtigen. Auch reicht häufig nicht mehr ein Sensor aus, um bevorstehende Maschinenausfälle zu erkennen: mehrere Sensoren (Sensorfusion) und deren teilweise unklaren Abhängigkeiten oder gar zeitliche Zusammenhänge müssen berücksichtigt werden. Hinzu kommt, dass die Datenmengen, welche relevante Muster enthalten, so groß sind, dass ein einzelner Mensch sie in seinem Arbeitsleben nicht sichten kann.

Maschinelles Lernen und datengetriebenes Vorgehen

An dieser Stelle kommt Maschinelles Lernen als weiterer Teilbereich der KI ins Spiel. Maschinelles Lernen bezeichnet Verfahren, bei denen nicht mehr nur der Mensch Regeln aus Daten ableitet, sondern die Maschine mithilfe von Daten Regeln erstellt. Damit ist das Vorgehen nicht mehr wissens-, sondern datengetrieben. Um die Komplexität bei zunehmenden Sonderfällen zu bewältigen, können Verfahren aus der klassischen Mustererkennung eingesetzt werden. Bei diesen Verfahren leitet weiterhin ein Experte möglichst aussagekräftige Kennzahlen aus den Sensordaten ab.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Doch anstatt die Schwellwerte im Entscheidungsbaum selbst festzulegen, stellt man die Kennzahlen und das gewünschte Verhalten einem Algorithmus, dem Klassifikator, zur Verfügung. Das System wird trainiert. Der Algorithmus berechnet auf Basis der gewonnenen Daten eine Entscheidungsgrenze, mit der sich der Klassifikator in möglichst vielen Fällen für das gewünschte Verhalten entscheidet. Falls sich bei Tests herausstellt, dass die Entscheidungsgrenze noch verbessert werden muss, kann das System auf zwei Arten angepasst werden: Zum einen kann der Experte neue Features generieren, die besser für Datenrepräsentation geeignet sind. Zum anderen können Daten, die zu Fehlverhalten des KI-Systems führen, gesammelt werden. Anschließend werden diese Daten in die Trainingsmenge aufgenommen, um den Klassifikator erneut zu trainieren. Es lässt sich eine bessere Entscheidungsgrenze finden.

Neuronale Netze und Maschinelles Lernen

Im Vergleich zum manuell designten Entscheidungsbaum kann ein solches System eine hohe Zahl an Features berücksichtigen. Neue Daten können durch den automatischen Lernprozess leicht berücksichtigt werden. Systeme, die auf klassischer Mustererkennung basieren, erfordern jedoch ein höheres Know-how im Umgang mit Merkmalen und Klassifikatoren. In den letzten Jahren hat das Maschinelle Lernen sehr viel Aufmerksamkeit erfahren. Durch die Weiterentwicklungen der Neuronalen Netze können inzwischen viele prominente Problemstellungen besser gelöst werden als mit klassischer Mustererkennung.

Dazu kommt, dass durch relativ einfach bedienbare Frameworks zumindest die ersten Schritte leichtfallen. Tiefergehendes Know-how, um Features zu generieren und zu selektieren sowie um verschiedene Klassifikatoren zu verwenden, wie in der klassischen Mustererkennung, entfallen. Dadurch hat das Thema Deep Learning, also das Trainieren tiefer neuronaler Netze, inzwischen einen regelrechten Hype erfahren. Bei Neuronalen Netzen lernt der Algorithmus nicht nur die Entscheidungsgrenze, sondern ermittelt anhand der vorliegenden Daten im Trainingsprozess auch Vorschriften, um Merkmale zu generieren. Der Mensch gibt an dieser Stelle nur die Architektur des Netzes vor, bestimmt den Grad der Komplexität, stellt eine geeignete Repräsentation an Daten zur Verfügung und optimiert das Training von außen. Dabei lernt das Netz umso besser, je komplexer die Features werden können. Die Menge der benötigten Daten steigt dagegen mit zunehmender Komplexität der Netzarchitektur. Zudem ist es nur schwer bis gar nicht möglich, die Funktionsweise Neuronaler Netze nachzuvollziehen.

Sofern genügend Daten zur Verfügung gestellt werden, erzielen Neuronale Netze bei bekannten Problemstellungen – gerade aus der Bilderkennung – aktuell die besten Ergebnisse. Der Rechenaufwand, der bei den vielen Daten entsteht, kann dabei gut parallelisiert werden.

Gute Ergebnisse nur bei großen Datenmengen

Diese Vorteile sind jedoch teuer erkauft, denn richtig gute Ergebnisse können Neuronale Netze nur erzielen, wenn eine sehr große Menge an Daten vorhanden ist. Stehen nur wenige Daten zur Verfügung, so schneiden Verfahren aus der klassischen Mustererkennung oft besser ab. Bei allen Verfahren des Maschinellen Lernens reicht es aber grundsätzlich nicht aus, eine große Menge an Daten heranzuschaffen: die Daten müssen auch annotiert werden. Das bedeutet, jedem Datenpunkt muss ein sogenanntes Label zugeordnet sein: das Label beschreibt, zu welcher Kategorie der Datenpunkt gehört. Beispielsweise, ob es sich um ein fehlerfreies oder fehlerbehaftetes Werkstück handelt. Besonders beim Aufsetzen des Trainingsprozesses gibt es mehrere Fallstricke: Es ist wichtig, Trainings- und Testdaten zu trennen, weil die bei der Evaluation ermittelte Genauigkeit nicht mehr die im Praxisbetrieb zu erwartende Genauigkeit wiedergibt. Zudem gilt beim Maschinellen Lernen unabhängig vom Verfahren, je mehr Daten, desto besser.

Die beschriebenen Verfahren sind eine Auswahl aus den vielen Möglichkeiten, welche die Künstliche Intelligenz bietet. Neuronale Netze liefern bei den meisten Problemstellungen aktuell die besten Ergebnisse. Welches Verfahren in der Praxis schlussendlich am besten geeignet ist, kommt auf den Einzelfall an. Rahmenbedingungen können sich ändern: So kann am Anfang ein Expertensystem aufgrund der wenigen Daten die richtige Wahl sein. Wenn die Genauigkeit nicht ausreicht und Ergebnisse in einem semi-automatischen Ansatz überprüft werden müssen, können die überprüften Ergebnisse gespeichert werden, sodass die Datenmenge wächst. Nach einiger Zeit ist die Datenmenge so groß, dass es wirtschaftlicher ist, das Expertensystem durch Maschinelles Lernen zu ersetzen, da die Genauigkeit dann möglicherweise im Toleranzbereich liegt. So kann eine Künstliche Intelligenz stufenweise von einem Expertensystem, zur klassischen Mustererkennung, bis hin zum Deep Learning weiterentwickelt werden.

Künstliche Intelligenz und die Erwartungshaltung

Wichtig ist die richtige Erwartungshaltung an die anvisierte Lösung. Auch wenn mit Neuronalen Netzen eine hohe Genauigkeit erreicht werden kann, 100 Prozent lassen sich im Normalfall nicht erreichen und deuten meist auf Fehler in der Evaluierung hin. Eine realistische Genauigkeit hängt dann von Datenqualität, Datenmenge und Problemstellung ab. Wenn die Erwartungshaltung und die Einsatzbereitschaft stimmen, steht dem Ziel Künstliche Intelligenz jedoch meist nichts im Wege. Der Teufel steckt dann wie so häufig im Detail.

Seit mehr als 25 Jahren unterstützt Astrum IT bei der Entwicklung von intelligenten Software-Produkten. Von Schulungen über Beratung bis hin zum Einsatz vor Ort. Das Unternehmen berät umfassend hinsichtlich Analyse und Verbesserung von IT Prozessen, Technologie sowie Datenschutz. Sie interessieren sich für das Thema Künstliche Intelligenz? Dann kontaktieren Sie uns über training@astrum-it.de.

Dieser Artikel stammt von unserem Partnerportal Elektronikpraxis. Verantwortlicher Redakteur: Hendrik Härter

* Dr. Jan Paulus promovierte am Lehrstuhl für Mustererkennung an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Bei Astrum IT beschäftigte er sich mit Maschinellem Lernen und Mustererkennung. Matthias Weidler promoviert aktuell am Lehrstuhl für Mustererkennung. Er entwickelt Algorithmen mit Fokus Bildverarbeitung und maschinelles Lernen. Beide arbeiten bei Astrum IT in Nürnberg.

(ID:45425300)