Die Produktqualität spielt in Fertigung und Produktion noch immer eine zentrale Rolle. Unterstützen kann hier die kognitive visuelle Inspektion, wirkte bislang aber häufig noch sehr komplex und somit abschreckend. Damit könnte es bald vorbei sein.
Die optische Begutachtung ist ein wichtiger Schritt in jeder Fertigung – eine kognitive visuelle Inspektion kann hier Vorteile bieten.
Noch vor zwei Jahren war die kognitive visuelle Inspektion ein sehr akademisches Thema. Data Scientists wurden auf Unternehmensseite vorausgesetzt, um die hochkomplexen neuronalen Netzwerke eines Modells zur Bildprüfung hausintern aufsetzen und trainieren zu können. Zudem musste die jeweilige kundenspezifische Lösung aufwendig in die Produktionsstraßen integriert werden. Alles Faktoren, die dem Thema in der Praxis eher wenig Attraktivität verliehen, und dass trotz der stetig steigenden Qualitätsanforderungen in der Fertigung. Schließlich müssen Unternehmen darauf vertrauen können, ihre Produkte mit einer Null-Fehler-Toleranz produzieren zu können. Selbst dann, wenn mehr Flexibilität gefordert ist und sich die Produktionsmengen hin zur Losgröße 1 bewegen.
Der technologische Fortschritt sorgt jedoch auch im Bereich der Qualitätsprüfung durch kognitive visuelle Inspektion für eine Zeitenwende. Vor allem in den letzten Jahren hat sich einiges rund um den Einsatz des Edge Computings für die visuelle Inspektion an der Fertigungsstraße getan. Mittlerweile ist die Fertigungslösung deutlich praxisorientierter, sodass heute beinahe auf Knopfdruck spezialisierte Lösungen spielend einfach zu implementieren sind.
Herausforderung beim Einsatz von traditionellen Bildverarbeitungsverfahren
Die visuelle Inspektion zu automatisieren ist in Zeiten von Industrie 4.0 naheliegend. Ein Algorithmus wird zur Mustererkennung soweit getestet und trainiert, um direkt an der Fertigungsstraße nicht nur das menschliche Auge zu unterstützen, sondern auch visuelle Details wie Farbschattierungen oder feinste Risse zu erkennen, die dem Auge schnell entgehen können – vor allem bei längerem Einsatz. So weit, so gut. Die Herausforderung in der Praxis war bislang, das aufgesetzte Modell auch am Einsatzort zu implementieren.
Noch vor wenigen Jahren musste die Anlagenumgebung aufwendig umgebaut und statisch so angepasst werden, dass standardisierte und leichter auswertbare Bilder entstehen konnten. Auch wurden traditionelle Ansätze noch manuell entwickelt, wodurch sie anwendungsabhängig waren und sich nicht auf neue Anwendungen ausweiten ließen. Diese traditionellen Ansätze litten somit in der Regel unter mangelnder Flexibilität, sehr begrenzten Möglichkeiten zur Skalierung und erforderten oft kostenintensive und zeitaufwendige manuelle Anwendungsentwicklung durch Experten aus bestimmten Fachgebieten. Viele Unternehmen scheuten sich bei diesen aufwendigen Aussichten für die Implementierung der Automation in der Bilderverarbeitung, den Schritt zu wagen.
Heutzutage wurde die Implementierung vereinfacht, zusätzliche Produkte, Oberflächen sowie Integrationsmöglichkeiten kamen hinzu. Vor allem lässt sich die visuelle Inspektion nun in kontinuierliche Kundenprozesse integrieren – dabei spielt KI eine ausschlaggebende Rolle. Das Modell kann nun zentral aufgesetzt, vortrainiert und so bereits standardisiert verfügbar gemacht werden. Ein Qualitätsprüfer vor Ort hat nun ebenfalls die Möglichkeit, neue Muster und Bilder in das Modell zu pflegen.
Was ist nun anders? - Spezialisierte Lösungen beinahe auf Knopfdruck
Im Wesentlichen kann man den Zyklus der kognitiven visuellen Inspektion weiterhin in drei Phasen herunterbrechen.
1. Schritt eins ist das zentrale Trainieren des Modells in der Cloud: In dieser Phase werden die Qualitätsstandards definiert. Zwar benötigt der Trainingsprozess weiterhin eine hohe Datenmasse und dementsprechend auch Ressourcen. Dank des KI-Einsatzes wurde diese Phase nun im Vergleich aber deutlich vereinfacht. Das KI-Modell zur kognitiven visuellen Inspektion benötigt im ersten Schritt nur einen Bruchteil der eigentlich nötigen Trainingsbilder, um bereits solide Ergebnisse zu erzielen. Vor allem Nuancen, Schattierungen, kleinste Mikro-Risse oder feinste Unregelmäßigkeiten, die das menschliche Auge nicht mehr wahrnehmen kann, können bei der Produktqualität erhebliche Unterschiede machen.
2. Ist das initiale Modell auf die visuelle Erkennung der Fehler vortrainiert, so kommt es im zweiten Schritt bereits zur Implementierung in der Fertigung. Das Modell wird via standardisierten Software-Containern an die Maschinen gebracht, sprich, die dezentrale Bilderverarbeitung wird on the edge, also am Netzwerkrand, eingesetzt und bei Bedarf breit ausgerollt. Die richtige Hardware als geeignete Edge-Geräte, die an der Netzwerk-Peripherie ins Spiel kommen, sind mittlerweile extrem leistungsstark und hochspezialisiert. So werden die kleinen Grafikprozessoren als System-on-Module-Produkte wie beispielsweise der Nvidia Jetson Nano eingesetzt, mit dem mehrere neuronale Netzwerke für KI-Anwendungen zusammengeschaltet werden können. Der Prozessor kann in wenigen Watt eine halbe Billion Operationen pro Sekunde (TOPS) in der Verarbeitung für Aufgaben wie der Bilderkennung bereitstellen – ohne, dass eine Rechenleistung über die Cloud laufen muss.
3. Das Nachtrainieren des Modells bildet den dritten Schritt und macht die KI-gestützte visuelle Inspektion deutlich flexibler. Das Modell kann jederzeit zentral und vom geschulten Qualitätsprüfer vor Ort nachjustiert und nachtrainiert werden, um eine noch höhere Qualität durch höhere Treffsicherheit zu erreichen. Die vortrainierten Modelle sind heutzutage schon soweit elaboriert, dass die groben Parameter nicht weiter angepasst werden müssen, was dazu führt, dass ein Data Scientist keine Voraussetzung mehr ist. Allein durch die Bereitstellung von weiterem Bildmaterial, wird der Qualitätsmanager in die Lage versetzt, das Modell selbstständig weitertrainieren zu können.
Zudem müssen Produktionsanlagen nicht mehr zeitaufwendig und kostenintensiv umgebaut werden, um von den Vorteilen der kognitiven visuellen Inspektion zu profitieren. Eine Implementierung der KI-Anwendung in die vorhandene Fertigungsstruktur ist dank der neuen System-on-Module-Geräte nun schneller und einfacher zu realisieren.
Skalierbarkeit im großen Stil
Mehr Effizienz in den drei Stufen ist aber längst nicht alles, denn der eigentliche Clou folgt erst noch: Ist das vortrainierte Modell erstmal aufgesetzt, so ist es nicht nur spezifisch für eine Anlage anwendbar, sondern kann nach Bedarf auf alle unternehmensweiten Anlagen ausgerollt werden, ganz gleich wo sich diese weltweit befinden.
Entsprechende Software ist dank neuer autonomer Verwaltungslösungen, wie dem IBM Edge Application Manager, zentral steuerbar. Dieser dient der Bereitstellung und Fernverwaltung von KI-, Analyse- und IoT-Workloads und liefert die Analysen und Einblicke in Echtzeit und in großem Maßstab. Die Lösung ermöglicht die gleichzeitige Verwaltung von bis zu 10.000 Edge-Knoten durch einen einzigen Administrator und basiert auf dem Open-Source-Projekt Open Horizon. Das Verwaltungs-Rahmenwerk Open Horizon Framework zielt darauf ab, zentralisiert und kontrollierbar abgesicherte, dedizierte Workloads auf bestimmte Edge-Geräte im großen Stil verteilen zu können. So wird bereits einer einzigen Person die sichere, zentralisierte und vereinfachte Verwaltung eines umfangreichen Netzwerks von Edge-Geräten ermöglicht.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Nicht nur in der Produktion, in der ein klarer Trend zur Losgröße 1 besteht, sondern beispielsweise auch in der Erstellung von Gutachten, etwa bei unterschiedlichsten Lackschäden bei KFZ-Prüfstellen, kann mit der kognitiven visuellen Inspektion mithilfe von KI und Edge Computing automatisiert werden. Hier eignet sich die neue Flexibilität der kognitiven visuellen Inspektion dank KI besonders.
Ausblick 5G: Edge Computing wird vermehrt Einzug halten
Um intelligente Bildverarbeitungslösungen vollständig nutzen zu können, braucht es also mehr als Kameras und Sensoren. Die Software sowie die entsprechende Systeminfrastruktur sind mindestens genauso wichtig, wenn sie nicht sogar der Schlüssel zum reibungslosen Funktionieren der Algorithmen sind.
Sensible Qualitätsprozesse über das Cloud Computing laufen zu lassen, ist möglich, macht sie aber gerade in der Produktion stark von einer Internetverbindung abhängig. In der Praxis sind Disconnected-Edge-Architekturen noch in vielen Fällen nicht vorbreitet, bieten aber ein hohes Potenzial, unkompliziert, KI flexibel und kostengünstiger in der visuellen Inspektion einzusetzen.
Laut einer Gartner-Studie aus 2018 werden zurzeit 10 Prozent der Daten on the edge verarbeitet, eine Zahl, die bis 2025 voraussichtlich auf 75 Prozent ansteigen wird, was das Wachstum und das Potenzial dieser neuen Technologie verdeutlicht.
Zukünftig wird die Rolle der Edge-Kompetenten in einem Funkstandard wie 5G einen ganz eigenen Stellenwert haben. In der Spezifikation des Standards ist vorgesehen, dass an den jeweiligen physischen Stationen im Netzwerk Rechenknoten mit unterschiedlicher Rechenkapazität vorhanden sind, über die bestimmte Lasten bereits lokal abgearbeitet werden können. 5G ist dabei komplementär zum Open Horizon Framework zu betrachten: Während 5G die dezentrale Rechenkapazität spezifiziert, gibt das Framework an, welche Workloads die jeweiligen Komponenten leisten sollen.
Zentrale Verwaltungslösungen gemeinsam mit hochfunktionalen leistungsstarken „kleinen Kisten“ wie dem Jetson Nano sowie ausgereiften Funkstandards wie 5G lassen das Edge Computing in der Produktion zur zukünftigen Realität werden. Schließlich steigern sie die Attraktivität bestimmter Anwendungen wie der kognitiven visuellen Inspektion deutlich. Und wer weiß – was heute die KI-gestützte visuelle Inspektion ist, kann morgen schon die gesamte Produktion à la Smart Factory on the Edge sein.
Dieser Artikel stammt von unserem Partnerportal Industry of Things. Verantwortlicher Redakteur: Sebastian Human
* Tobias Stöckel arbeitet als IoT Architect am IBM Watson IoT Center.