TU Graz definiert Stand der Technik Maschinelles Sehen– Forscher nutzen menschliches Gehirn als Vorbild

Autor / Redakteur: Martin Hensel / Nico Litzel

Wissenschaftler der Technischen Universität Graz haben neue mathematische Modelle und Algorithmen für schnellere und intelligentere Bildverarbeitung entwickelt. Als Vorbild diente die Sehrinde im menschlichen Gehirn.

Firma zum Thema

Thomas Pock, Informatiker an der TU Graz, entwickelte neue Bildverarbeitungsalgorithmen zur Korrektur von Unschärfen, defekten Pixeln oder anderen technischen Bildfehlern.
Thomas Pock, Informatiker an der TU Graz, entwickelte neue Bildverarbeitungsalgorithmen zur Korrektur von Unschärfen, defekten Pixeln oder anderen technischen Bildfehlern.
(Bild: Lunghammer - TU Graz)

Der visuelle Cortex kann in Sekundenbruchteilen Bilder erfassen und Objekte erkennen – auch wenn diese kaum oder nur teilweise zu sehen sind. Dafür ist unter anderem seine hocheffiziente hierarchische Schichtenarchitektur verantwortlich. Sie filtert visuelle Informationen, erkennt Zusammenhänge und vervollständigt Bilder anhand vertrauter Muster. Die Prozesse dahinter werden immer noch kaum verstanden. Es existieren vergleichbar leistungsfähige Deep-Learning-Algorithmen, die aber ebenfalls nur sehr schwarz nachvollziehbar sind.

Der Funktionsweise auf der Spur

Thomas Pock vom Institut für Maschinelles Sehen und Darstellen der TU Graz ist diesen offenen Fragen im Rahmen seines Projekts HOMOVIS („High Level Prior Models for Computer Vision“) nachgegangen. Dabei erforschte er, wie sich bekannte Arbeitsweise des visuellen Cortex mittels mathematischer Modelle berechnen und auf Bildverarbeitungsanwendungen übertragen lassen. Im Rahmen des fünfjährigen Projekts entstanden 41 Publikationen, ein Patent und umfangreiches Know-how.

„Der Mensch kann schon anhand einzelner Punkte oder subjektiver Konturen (Scheinkonturen) lückenhafte bzw. unvollständige Objekte korrekt erkennen. Das menschliche Gehirn ergänzt die fehlende Bildinformation automatisch. Beispielsweise, indem es die Punkte über möglichst glatte Kurven miteinander verbindet“, erklärt Pock. Diese Gestaltfindung haben die Forscher über mathematische Modelle beschrieben, die auf der Elastica-Theorie beruhen. Dabei handelt es sich um eine berühmte Gleichung des Mathematikers Leonhard Euler, die das Berechnen von Kurven mit minimalster Krümmung ermöglicht.

Tieferes Verständnis ermöglichen

Auf dieser Basis entwickelten Pock und sein Team neue Algorithmen, um bestimmte krümmungsabhängige Bildverarbeitungsprobleme zu lösen. Die Lösung ist demnach einfacher, sofern die (2D-)Bilder und deren Merkmale als Datenpunkte im dreidimensionalen Raum dargestellt werden. „In der dritten Dimension bekommen wir mit der Orientierung der Objektkanten eine zusätzliche Variable“, so Pock. Auch dies ähnle dem menschlichen Sehen: So stellten bereits die Nobelpreisträger David Hubel und Torsten Wiesel im Jahr 1959 fest, dass der visuelle Cortex aus orientierungssensitiven Schichten besteht. Dank dieses Verfahrens lassen sich nun Bildverarbeitungsprobleme mithilfe konvexer Optimierungsalgorithmen lösen. „Somit können wir für alle gegebenen Eingangsbilder garantiert das beste Bild berechnen – natürlich nur in Bezug auf das verwendete mathematische Modell“, ergänzt Pock.

Verbesserte Modelle sollen künftig die bekannten strukturellen Eigenschaften des visuellen Cortex mit Deep-Learning-Algorithmen kombinieren. Sie sollen nicht nur so gut wie bereits vorhandene Algorithmen arbeiten, sondern auch ein tieferes Verständnis der gelernten Strukturen gestatten. Erste Erfolge gibt es bereits bei der Rekonstruktion von Computertomografien und Magnetresonanzbildern. „Mit den neu entwickelten Algorithmen lassen sich nun trotz weniger aufgenommener Daten Bilder mit höchster Qualität rekonstruieren. Das spart Zeit und Rechenleistung und somit auch Kosten“, meint Pock.

(ID:47465861)