Kommentar von Yonatan Hyatt, Inspekto

Autonome Machine Vision schafft Flexibilität

| Autor / Redakteur: Yonatan Hyatt / Nico Litzel

Der Autor: Yonatan Hyatt ist CTO und Co-Founder von Inspekto.
Der Autor: Yonatan Hyatt ist CTO und Co-Founder von Inspekto. (Bild: Udi Dagan (C))

Deep Learning gewinnt im Bereich Machine Vision an Popularität. Es ermöglicht Datenwissenschaftlern die sorgfältige Erstellung von Programmen, die die menschliche Entscheidungsfindung für spezifische, ausführlich definierte Aufgaben imitieren.

Deep Learning verbreitet sich zunehmend, da Hersteller nach intelligenten Machine-Vision-Systemen suchen. Laut einem Bericht von ABI Research werden auf Deep Learning basierte Machine-Vision-Methoden bei der intelligenten Fertigung zwischen 2017 und 2023 eine durchschnittliche jährliche Wachstumsrate von 20 Prozent aufweisen, bei einem Umsatz, der bis 2023 rund 34 Milliarden US-Dollar erreichen wird.

Doch aufgrund ihrer Kosten und erforderlichen langen Ausfallzeit gibt es enorme Hindernisse bei der Implementierung von Machine-Vision-Lösungen. Viele Hersteller sind nicht in der Lage, ein System für maschinelles Sehen zu installieren, da dieses entweder zu kostenaufwendig oder technisch zu komplex ist.

Die Anbieter solcher Lösungen gehen bei Machine Vision üblicherweise so vor, dass die Software als eigenständiges Paket verkauft wird, das dann zusammen mit allen anderen Komponenten zu einer hochtechnisierten Lösung zusammengesetzt wird. Diese Lösung ist dann für die Untersuchung eines ganz bestimmten Produkts an einer ganz bestimmten Stelle in einer bestimmten Fertigungsstraße einsatzfähig. Selbst die fortschrittlichste Lösung, die mit Deep Learning ausgestattet ist, weist keine echte Flexibilität auf.

Systemintegrator bisher notwendig

Da die Umsetzung dermaßen komplex ist, beauftragt der Hersteller normalerweise einen Systemintegrator, der u. a. die Beleuchtung, Kameras, Kommunikation und Gehäuse auswählt. Es ist auch der Systemintegrator, der die Deep Learning Software für die Machine Vision Software auswählt, da Hersteller nicht über die nötige interne Expertise verfügen, um eine herkömmliche Deep-Learning-Lösung unabhängig einzurichten, zu betreiben und zu trainieren.

Aufgrund der mangelnden Flexibilität herkömmlicher Lösungen bedeutet jede Veränderung in der Fertigungsstraße, dass der Hersteller abermals auf die Expertise des Systemintegrators zurückgreifen muss. Dieser passt dann die Lösung an, beispielsweise durch Entwicklung neuer Beleuchtungsbedingungen. Es kann jedoch auch vorkommen, dass eine Anpassung nicht möglich ist. In diesem Fall muss der Hersteller die visuelle QS-Lösung durch eine komplett neue ersetzen, das heißt, der teure, zeitraubende Prozess beginnt von Neuem.

Komplexes Training

Nach der Erstellung erfordert eine Machine-Vision-Lösung, die über Deep Learning verfügt, einen aufwendigen Trainingsprozess. Der Benutzer muss der Lösung Hunderte, Tausende oder manchmal sogar Millionen von fehlerhaften Mustern vorlegen, damit diese lernt, wie ein fehlerhaftes Produkt aussieht. Der Systemintegrator muss Maschinenlernparameter festlegen, wie z. B. Datenerweiterung, Netzwerktopologien oder endgültige Klassifizierungsschwellen.

Der Entwicklungs-, Installations-, Einrichtungs- und Trainingsprozess zieht sich häufig über mehrere Monate, was lange Ausfallzeiten zur Folge hat oder Hersteller dazu zwingt, auf manuelle visuelle Inspektionen zurückzugreifen, eine unzuverlässige und teure Methode.

Das bedeutet, dass der Endbenutzer keinerlei Erwartungen daran haben wird, direkt von Deep Learning Software zu profitieren – er hat keine direkte Interaktion mit der visuellen Qualitätssicherungslösung (QS), die für seine Fertigungsanlage entwickelt wurde. Er kann nur hoffen, dass aktuelle Deep Learning Software die Qualität seiner visuellen QS-Lösung verbessern wird, wie es ihm der Systemintegrator versprochen hat.

Blick in die Zukunft

Der Einrichtvorgang des Systems: Auf der linken Seite fordert das System weitere Stichproben an, um die Merkmale der zu prüfenden Position zu erfahren. Auf der rechten Seite signalisiert das System, dass es über genügend Informationen verfügt und zur Inspektion bereit ist.
Der Einrichtvorgang des Systems: Auf der linken Seite fordert das System weitere Stichproben an, um die Merkmale der zu prüfenden Position zu erfahren. Auf der rechten Seite signalisiert das System, dass es über genügend Informationen verfügt und zur Inspektion bereit ist. (Bild: Inspekto)

Um an dieser Situation etwas zu ändern, führte Inspekto das erste Produkt auf dem Markt der autonomen Machine Vision ein, das Inspekto S70, mit dem Hersteller die komplette Kontrolle über ihre visuelle QS erhalten. Endbenutzer können nun ein komplett einsatzbereites Qualitätssicherungssystem in weniger als einer Stunde einrichten.

Für die Konfiguration sind zwischen 20 und 30 einwandfreie Muster erforderlich, keine fehlerhaften. Der Endbenutzer profitiert von Deep Learning – als Bestandteil dieses Komplettsystems und nicht als separates Softwaretool – ohne Parameter zu konfigurieren oder sich mit der Sammlung und Kennzeichnung von Daten herumzuschlagen.

Autonome Machine-Vision-Systeme umfassen mehrere KI-Module, die einander ergänzen. Diese Künstliche Intelligenz deckt sämtliche Aspekte der visuellen Qualitätssicherung in der Fertigungsstraße ab, einschließlich der Selbsteinstellung von Sensorparametern, Selbstanpassung und Selbstfeineinstellung von Erkennungstechnologien für Objekte im Sichtfeld des Sensors. Das System kann sich daher eigenständig einstellen, und es ist keine Entwicklung eines Konzeptnachweises erforderlich.

Die Abbildung zeigt eine Reihe von Anomalien, die von einem Inspekto-S70-System erkannt wurden.
Die Abbildung zeigt eine Reihe von Anomalien, die von einem Inspekto-S70-System erkannt wurden. (Bild: Inspekto)

Dank des von Inspekto entwickelten Algorithmus kann das System ohne Vorwissen zum Objekt und ohne Fachkenntnisse des Bedieners störende Veränderungen im Sichtfeld von Materialänderungen, die einen Fehler darstellen, unterscheiden. Eine andere Ausrichtung des Objekts oder eine veränderte Beleuchtungsbedingung haben somit keine Fehlermeldung zur Folge.

Zudem bietet die autonome Maschinenbildverarbeitung Flexibilität, das heißt, ein System kann problemlos von einem Punkt der Fertigungsanlage zu einem anderen verlegt werden und bietet dort die gleiche einfache Einrichtung wie zuvor. Dank dieser Flexibilität kann die visuelle QS auch für mehrere Produkte am selben Standort der Fertigungsanlage durchgeführt werden – das System erkennt und klassifiziert jedes Produkt ordnungsgemäß.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46268025 / Industrie 4.0)