Suchen

KI-basierte Qualitätsprüfung Zeitenwende für die visuelle Inspektion in der Fertigung

Autor / Redakteur: Tobias Stöckel* / Nico Litzel

Die Produktqualität spielt in Fertigung und Produktion noch immer eine zentrale Rolle. Unterstützen kann hier die kognitive visuelle Inspektion, wirkte bislang aber häufig noch sehr komplex und somit abschreckend. Damit könnte es bald vorbei sein.

Firmen zum Thema

Die optische Begutachtung ist ein wichtiger Schritt in jeder Fertigung – eine kognitive visuelle Inspektion kann hier Vorteile bieten.
Die optische Begutachtung ist ein wichtiger Schritt in jeder Fertigung – eine kognitive visuelle Inspektion kann hier Vorteile bieten.
(Bild: gemeinfrei / Pexels )

Noch vor zwei Jahren war die kognitive visuelle Inspektion ein sehr akademisches Thema. Data Scientists wurden auf Unternehmensseite vorausgesetzt, um die hochkomplexen neuronalen Netzwerke eines Modells zur Bildprüfung hausintern aufsetzen und trainieren zu können. Zudem musste die jeweilige kundenspezifische Lösung aufwendig in die Produktionsstraßen integriert werden. Alles Faktoren, die dem Thema in der Praxis eher wenig Attraktivität verliehen, und dass trotz der stetig steigenden Qualitätsanforderungen in der Fertigung. Schließlich müssen Unternehmen darauf vertrauen können, ihre Produkte mit einer Null-Fehler-Toleranz produzieren zu können. Selbst dann, wenn mehr Flexibilität gefordert ist und sich die Produktionsmengen hin zur Losgröße 1 bewegen.

Der technologische Fortschritt sorgt jedoch auch im Bereich der Qualitätsprüfung durch kognitive visuelle Inspektion für eine Zeitenwende. Vor allem in den letzten Jahren hat sich einiges rund um den Einsatz des Edge Computings für die visuelle Inspektion an der Fertigungsstraße getan. Mittlerweile ist die Fertigungslösung deutlich praxisorientierter, sodass heute beinahe auf Knopfdruck spezialisierte Lösungen spielend einfach zu implementieren sind.

Herausforderung beim Einsatz von traditionellen Bildverarbeitungsverfahren

Die visuelle Inspektion zu automatisieren ist in Zeiten von Industrie 4.0 naheliegend. Ein Algorithmus wird zur Mustererkennung soweit getestet und trainiert, um direkt an der Fertigungsstraße nicht nur das menschliche Auge zu unterstützen, sondern auch visuelle Details wie Farbschattierungen oder feinste Risse zu erkennen, die dem Auge schnell entgehen können – vor allem bei längerem Einsatz. So weit, so gut. Die Herausforderung in der Praxis war bislang, das aufgesetzte Modell auch am Einsatzort zu implementieren.

Noch vor wenigen Jahren musste die Anlagenumgebung aufwendig umgebaut und statisch so angepasst werden, dass standardisierte und leichter auswertbare Bilder entstehen konnten. Auch wurden traditionelle Ansätze noch manuell entwickelt, wodurch sie anwendungsabhängig waren und sich nicht auf neue Anwendungen ausweiten ließen. Diese traditionellen Ansätze litten somit in der Regel unter mangelnder Flexibilität, sehr begrenzten Möglichkeiten zur Skalierung und erforderten oft kostenintensive und zeitaufwendige manuelle Anwendungsentwicklung durch Experten aus bestimmten Fachgebieten. Viele Unternehmen scheuten sich bei diesen aufwendigen Aussichten für die Implementierung der Automation in der Bilderverarbeitung, den Schritt zu wagen.

Heutzutage wurde die Implementierung vereinfacht, zusätzliche Produkte, Oberflächen sowie Integrationsmöglichkeiten kamen hinzu. Vor allem lässt sich die visuelle Inspektion nun in kontinuierliche Kundenprozesse integrieren – dabei spielt KI eine ausschlaggebende Rolle. Das Modell kann nun zentral aufgesetzt, vortrainiert und so bereits standardisiert verfügbar gemacht werden. Ein Qualitätsprüfer vor Ort hat nun ebenfalls die Möglichkeit, neue Muster und Bilder in das Modell zu pflegen.

Was ist nun anders? - Spezialisierte Lösungen beinahe auf Knopfdruck

Im Wesentlichen kann man den Zyklus der kognitiven visuellen Inspektion weiterhin in drei Phasen herunterbrechen.

  • 1. Schritt eins ist das zentrale Trainieren des Modells in der Cloud: In dieser Phase werden die Qualitätsstandards definiert. Zwar benötigt der Trainingsprozess weiterhin eine hohe Datenmasse und dementsprechend auch Ressourcen. Dank des KI-Einsatzes wurde diese Phase nun im Vergleich aber deutlich vereinfacht. Das KI-Modell zur kognitiven visuellen Inspektion benötigt im ersten Schritt nur einen Bruchteil der eigentlich nötigen Trainingsbilder, um bereits solide Ergebnisse zu erzielen. Vor allem Nuancen, Schattierungen, kleinste Mikro-Risse oder feinste Unregelmäßigkeiten, die das menschliche Auge nicht mehr wahrnehmen kann, können bei der Produktqualität erhebliche Unterschiede machen.
  • 2. Ist das initiale Modell auf die visuelle Erkennung der Fehler vortrainiert, so kommt es im zweiten Schritt bereits zur Implementierung in der Fertigung. Das Modell wird via standardisierten Software-Containern an die Maschinen gebracht, sprich, die dezentrale Bilderverarbeitung wird on the edge, also am Netzwerkrand, eingesetzt und bei Bedarf breit ausgerollt. Die richtige Hardware als geeignete Edge-Geräte, die an der Netzwerk-Peripherie ins Spiel kommen, sind mittlerweile extrem leistungsstark und hochspezialisiert. So werden die kleinen Grafikprozessoren als System-on-Module-Produkte wie beispielsweise der Nvidia Jetson Nano eingesetzt, mit dem mehrere neuronale Netzwerke für KI-Anwendungen zusammengeschaltet werden können. Der Prozessor kann in wenigen Watt eine halbe Billion Operationen pro Sekunde (TOPS) in der Verarbeitung für Aufgaben wie der Bilderkennung bereitstellen – ohne, dass eine Rechenleistung über die Cloud laufen muss.
  • 3. Das Nachtrainieren des Modells bildet den dritten Schritt und macht die KI-gestützte visuelle Inspektion deutlich flexibler. Das Modell kann jederzeit zentral und vom geschulten Qualitätsprüfer vor Ort nachjustiert und nachtrainiert werden, um eine noch höhere Qualität durch höhere Treffsicherheit zu erreichen. Die vortrainierten Modelle sind heutzutage schon soweit elaboriert, dass die groben Parameter nicht weiter angepasst werden müssen, was dazu führt, dass ein Data Scientist keine Voraussetzung mehr ist. Allein durch die Bereitstellung von weiterem Bildmaterial, wird der Qualitätsmanager in die Lage versetzt, das Modell selbstständig weitertrainieren zu können.

Zudem müssen Produktionsanlagen nicht mehr zeitaufwendig und kostenintensiv umgebaut werden, um von den Vorteilen der kognitiven visuellen Inspektion zu profitieren. Eine Implementierung der KI-Anwendung in die vorhandene Fertigungsstruktur ist dank der neuen System-on-Module-Geräte nun schneller und einfacher zu realisieren.

Skalierbarkeit im großen Stil

Mehr Effizienz in den drei Stufen ist aber längst nicht alles, denn der eigentliche Clou folgt erst noch: Ist das vortrainierte Modell erstmal aufgesetzt, so ist es nicht nur spezifisch für eine Anlage anwendbar, sondern kann nach Bedarf auf alle unternehmensweiten Anlagen ausgerollt werden, ganz gleich wo sich diese weltweit befinden.

Entsprechende Software ist dank neuer autonomer Verwaltungslösungen, wie dem IBM Edge Application Manager, zentral steuerbar. Dieser dient der Bereitstellung und Fernverwaltung von KI-, Analyse- und IoT-Workloads und liefert die Analysen und Einblicke in Echtzeit und in großem Maßstab. Die Lösung ermöglicht die gleichzeitige Verwaltung von bis zu 10.000 Edge-Knoten durch einen einzigen Administrator und basiert auf dem Open-Source-Projekt Open Horizon. Das Verwaltungs-Rahmenwerk Open Horizon Framework zielt darauf ab, zentralisiert und kontrollierbar abgesicherte, dedizierte Workloads auf bestimmte Edge-Geräte im großen Stil verteilen zu können. So wird bereits einer einzigen Person die sichere, zentralisierte und vereinfachte Verwaltung eines umfangreichen Netzwerks von Edge-Geräten ermöglicht.

Nicht nur in der Produktion, in der ein klarer Trend zur Losgröße 1 besteht, sondern beispielsweise auch in der Erstellung von Gutachten, etwa bei unterschiedlichsten Lackschäden bei KFZ-Prüfstellen, kann mit der kognitiven visuellen Inspektion mithilfe von KI und Edge Computing automatisiert werden. Hier eignet sich die neue Flexibilität der kognitiven visuellen Inspektion dank KI besonders.

Ausblick 5G: Edge Computing wird vermehrt Einzug halten

Um intelligente Bildverarbeitungslösungen vollständig nutzen zu können, braucht es also mehr als Kameras und Sensoren. Die Software sowie die entsprechende Systeminfrastruktur sind mindestens genauso wichtig, wenn sie nicht sogar der Schlüssel zum reibungslosen Funktionieren der Algorithmen sind.

Sensible Qualitätsprozesse über das Cloud Computing laufen zu lassen, ist möglich, macht sie aber gerade in der Produktion stark von einer Internetverbindung abhängig. In der Praxis sind Disconnected-Edge-Architekturen noch in vielen Fällen nicht vorbreitet, bieten aber ein hohes Potenzial, unkompliziert, KI flexibel und kostengünstiger in der visuellen Inspektion einzusetzen.

Laut einer Gartner-Studie aus 2018 werden zurzeit 10 Prozent der Daten on the edge verarbeitet, eine Zahl, die bis 2025 voraussichtlich auf 75 Prozent ansteigen wird, was das Wachstum und das Potenzial dieser neuen Technologie verdeutlicht.

Zukünftig wird die Rolle der Edge-Kompetenten in einem Funkstandard wie 5G einen ganz eigenen Stellenwert haben. In der Spezifikation des Standards ist vorgesehen, dass an den jeweiligen physischen Stationen im Netzwerk Rechenknoten mit unterschiedlicher Rechenkapazität vorhanden sind, über die bestimmte Lasten bereits lokal abgearbeitet werden können. 5G ist dabei komplementär zum Open Horizon Framework zu betrachten: Während 5G die dezentrale Rechenkapazität spezifiziert, gibt das Framework an, welche Workloads die jeweiligen Komponenten leisten sollen.

Zentrale Verwaltungslösungen gemeinsam mit hochfunktionalen leistungsstarken „kleinen Kisten“ wie dem Jetson Nano sowie ausgereiften Funkstandards wie 5G lassen das Edge Computing in der Produktion zur zukünftigen Realität werden. Schließlich steigern sie die Attraktivität bestimmter Anwendungen wie der kognitiven visuellen Inspektion deutlich. Und wer weiß – was heute die KI-gestützte visuelle Inspektion ist, kann morgen schon die gesamte Produktion à la Smart Factory on the Edge sein.

Dieser Artikel stammt von unserem Partnerportal Industry of Things. Verantwortlicher Redakteur: Sebastian Human

* Tobias Stöckel arbeitet als IoT Architect am IBM Watson IoT Center.

(ID:46747074)