SoC und heterogene Computing-Architektur

Deep Learning mit HSA macht Machine Vision sicherer

| Autor / Redakteur: Lars Asplund, Frederik Bruhn * / Nico Litzel

Bild 1: HSA vereinheitlicht den Umgang mit den grundlegenden Recheneinheiten. Programmierer können Applikationen entwickeln, bei denen sich CPUs mit GPUs nahtlos verbinden und jeweils die besseren Eigenschaften der anderen Einheit nutzen können.
Bild 1: HSA vereinheitlicht den Umgang mit den grundlegenden Recheneinheiten. Programmierer können Applikationen entwickeln, bei denen sich CPUs mit GPUs nahtlos verbinden und jeweils die besseren Eigenschaften der anderen Einheit nutzen können. (Bild: Unibap)

Eine neue Generation smarter Kameras bietet mit stereoskopischem Sehen und Deep-Learning-Algorithmen mehr Intelligenz für kooperatives Arbeiten und sicherheitskritische Steuerungen.

Intelligentes Sehen kann nun sogar Deep-Learning-Algorithmen integrieren; damit werdenen kooperative Arbeitsbedingungen zwischen Mensch und Maschine möglich. Am effizientesten lassen sich solche Algorithmen auf heterogenen Systemarchitekturen (HSA) ausführen.

Die ersten Machine-Vision-Applikationen nutzten Framegrabber und digitale Signalprozessoren (DSPs) und ermöglichten die Identifikation bekannter Muster. Mit der Entwicklung von kostengünstiger Hochleistungssensorik – und diese ist einer der drei wichtigsten Befähiger der Machine-Vision-Revolution – werden nun ganz neue Applikationen möglich. Mit ihr bewegt sich das maschinelle Sehen vom „Erkennen – Vergleichen – Entscheiden“ hin zu einem deutlich höher entwickelten „Erkennen – Planen – Agieren“. Und diese neue Methodik kann von vergleichsweise einfachen stationären Qualitätsmanagement-Systemen über die Robotik bis hin zu komplexen autonomen Fahrzeugen angewandt werden.

Vision-Systeme werden so zu höchst leistungsfähigen Augen, die Roboter auch über ihre Position und Umgebung informieren können. Embedded-Prozessoren, wie die HSA (Heterogene System Architektur) unterstützenden AMD-SoCs der Embedded-G-Series und liefern hierzu das erforderliche eingebettete „Gehirn“. Also die passende Rechenkapazität, mit der die Umgebungsinformationen verstanden und interpretiert werden können. Das ist der zweite wesentliche Befähiger neuer Machine-Vision-Systeme, da ein solches SoC die benötigte Rechenleistung bei besonders geringem Stromverbrauch bietet.

Zudem brauchen wir für eine smarte Robotik auch noch das Agieren. Die passende Aktorik für mobil agierende Systeme benötigt beispielsweise Batterien mit hoher Leistungsdichte und Elektromotoren mit höchster Energieeffizienz. Damit sind leistungsfähige Batterien und bürstenlose Gleichstrommotoren (BLDC) zusammen der dritte Befähiger der neuen Revolution; und eben die Kombination dieser drei höchst innovativen Technologien macht das maschinelles Sehen und die Robotik heute so revolutionär.

Neue intelligente Vision-Systeme

Schauen wir uns den Vision-Teil der industriellen Revolution noch etwas genauer an: Beim Menschen sind die Augen über Nerven mit dem visuellen Cortex in unserem Gehirn verbunden. Dieser nimmt von unseren fünf Sinnen den größten Bereich unseres Gehirns ein. In Machine-Vision-Systemen, wie dem IVS-70 (siehe Bild 2), repräsentieren die auf Parallel-Computing basierenden heterogenen SoCs den künstlichen visuellen Cortex. Linsen und optische Sensoren fungieren als Augen, die Hochleistungsverbindungen zwischen den Sensoren und den Recheneinheiten entsprechen den Sehnerven.

Ein solches System bietet nicht nur die benötigte hohe Geschwindigkeit und Auflösung, um mit dem menschlichen Sehvermögen mitzuhalten, es liefert auch präzise dreidimensionale Informationen über Orientierungspunkte und Objekte. Stereoskopisches Sehen ist hierfür natürlich entscheidend. Industrielle Anwendungen finden sich dafür beispielsweise beim Heraussuchen von unsortierten Objekten aus Behältern: Ist das Vision-System auf einen Roboterarm montiert, leitet es den Roboter eigenständig mit 50 fps (Bilder pro Sekunde) und identifiziert das am besten passende Objekt; und dies bereits während sich der Greifarm dem Behälter nähert. Dadurch werden der bislang übliche Scan-Vorgang, der ein paar Sekunden dauern kann, sowie die darauf folgende Umprogrammierung des Roboterarms überflüssig. Zu den weiteren Anwendungsfällen dieser neuen Vision-Technologien zählen natürlich auch autonome Fahrzeuge sowie die gesamte Bandbreite häuslicher Robotik-Apps.

Das Auge der Automatisierung

Experten zum Thema Industrielle Bildverarbeitung

Das Auge der Automatisierung

28.09.16 - Industrielle Bildverarbeitung ist in der Produktion längst unverzichtbar und gilt als Schlüsseltechnologie für die erfolgreiche Umsetzung von Industrie 4.0: Wer vernetzt und automatisiert produzieren will, kommt um deren Einsatz nicht herum. lesen

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44410585 / Künstliche Intelligenz)