Suchen

SoC und heterogene Computing-Architektur Deep Learning mit HSA macht Machine Vision sicherer

| Autor / Redakteur: Lars Asplund, Frederik Bruhn * / Nico Litzel

Eine neue Generation smarter Kameras bietet mit stereoskopischem Sehen und Deep-Learning-Algorithmen mehr Intelligenz für kooperatives Arbeiten und sicherheitskritische Steuerungen.

Firmen zum Thema

Bild 1: HSA vereinheitlicht den Umgang mit den grundlegenden Recheneinheiten. Programmierer können Applikationen entwickeln, bei denen sich CPUs mit GPUs nahtlos verbinden und jeweils die besseren Eigenschaften der anderen Einheit nutzen können.
Bild 1: HSA vereinheitlicht den Umgang mit den grundlegenden Recheneinheiten. Programmierer können Applikationen entwickeln, bei denen sich CPUs mit GPUs nahtlos verbinden und jeweils die besseren Eigenschaften der anderen Einheit nutzen können.
(Bild: Unibap)

Intelligentes Sehen kann nun sogar Deep-Learning-Algorithmen integrieren; damit werdenen kooperative Arbeitsbedingungen zwischen Mensch und Maschine möglich. Am effizientesten lassen sich solche Algorithmen auf heterogenen Systemarchitekturen (HSA) ausführen.

Die ersten Machine-Vision-Applikationen nutzten Framegrabber und digitale Signalprozessoren (DSPs) und ermöglichten die Identifikation bekannter Muster. Mit der Entwicklung von kostengünstiger Hochleistungssensorik – und diese ist einer der drei wichtigsten Befähiger der Machine-Vision-Revolution – werden nun ganz neue Applikationen möglich. Mit ihr bewegt sich das maschinelle Sehen vom „Erkennen – Vergleichen – Entscheiden“ hin zu einem deutlich höher entwickelten „Erkennen – Planen – Agieren“. Und diese neue Methodik kann von vergleichsweise einfachen stationären Qualitätsmanagement-Systemen über die Robotik bis hin zu komplexen autonomen Fahrzeugen angewandt werden.

Bildergalerie

Vision-Systeme werden so zu höchst leistungsfähigen Augen, die Roboter auch über ihre Position und Umgebung informieren können. Embedded-Prozessoren, wie die HSA (Heterogene System Architektur) unterstützenden AMD-SoCs der Embedded-G-Series und liefern hierzu das erforderliche eingebettete „Gehirn“. Also die passende Rechenkapazität, mit der die Umgebungsinformationen verstanden und interpretiert werden können. Das ist der zweite wesentliche Befähiger neuer Machine-Vision-Systeme, da ein solches SoC die benötigte Rechenleistung bei besonders geringem Stromverbrauch bietet.

Zudem brauchen wir für eine smarte Robotik auch noch das Agieren. Die passende Aktorik für mobil agierende Systeme benötigt beispielsweise Batterien mit hoher Leistungsdichte und Elektromotoren mit höchster Energieeffizienz. Damit sind leistungsfähige Batterien und bürstenlose Gleichstrommotoren (BLDC) zusammen der dritte Befähiger der neuen Revolution; und eben die Kombination dieser drei höchst innovativen Technologien macht das maschinelles Sehen und die Robotik heute so revolutionär.

Neue intelligente Vision-Systeme

Schauen wir uns den Vision-Teil der industriellen Revolution noch etwas genauer an: Beim Menschen sind die Augen über Nerven mit dem visuellen Cortex in unserem Gehirn verbunden. Dieser nimmt von unseren fünf Sinnen den größten Bereich unseres Gehirns ein. In Machine-Vision-Systemen, wie dem IVS-70 (siehe Bild 2), repräsentieren die auf Parallel-Computing basierenden heterogenen SoCs den künstlichen visuellen Cortex. Linsen und optische Sensoren fungieren als Augen, die Hochleistungsverbindungen zwischen den Sensoren und den Recheneinheiten entsprechen den Sehnerven.

Ein solches System bietet nicht nur die benötigte hohe Geschwindigkeit und Auflösung, um mit dem menschlichen Sehvermögen mitzuhalten, es liefert auch präzise dreidimensionale Informationen über Orientierungspunkte und Objekte. Stereoskopisches Sehen ist hierfür natürlich entscheidend. Industrielle Anwendungen finden sich dafür beispielsweise beim Heraussuchen von unsortierten Objekten aus Behältern: Ist das Vision-System auf einen Roboterarm montiert, leitet es den Roboter eigenständig mit 50 fps (Bilder pro Sekunde) und identifiziert das am besten passende Objekt; und dies bereits während sich der Greifarm dem Behälter nähert. Dadurch werden der bislang übliche Scan-Vorgang, der ein paar Sekunden dauern kann, sowie die darauf folgende Umprogrammierung des Roboterarms überflüssig. Zu den weiteren Anwendungsfällen dieser neuen Vision-Technologien zählen natürlich auch autonome Fahrzeuge sowie die gesamte Bandbreite häuslicher Robotik-Apps.

Artikelfiles und Artikellinks

(ID:44410585)