KI-Systeme Mensch und Roboter sollen in Gefahrensituationen kollaborieren

Von Julia Bender

Anbieter zum Thema

Bei Rettungseinsätzen, im Weltraum oder in der Tiefsee – in Zukunft sollen mit KI ausgestattete Roboter den Menschen bei Tätigkeiten in gefährlichen Umgebungen unterstützen. Vorab müssen aber gewisse Herausforderungen bewältigt werden.

In der Zukunftsvision der Plattform Lernende Systeme werden selbstlernende Roboter in lebensfeindlichen Umgebungen wie dem Weltall mit dem Menschen zusammenarbeiten.
In der Zukunftsvision der Plattform Lernende Systeme werden selbstlernende Roboter in lebensfeindlichen Umgebungen wie dem Weltall mit dem Menschen zusammenarbeiten.
(Bild: Plattform Lernende Systeme)

Heutzutage ist es keine Sensation mehr, wenn der Mensch mit KI-Systemen und selbstlernenden Robotern zusammenarbeitet, etwa in der Industrieproduktion oder beim automatisierten Fahren. Dennoch stellt die Entwicklung eines autonomen Roboters, der beispielsweise bei Naturkatastrophen unterstützend an der Seite des Menschen agiert, die Wissenschaftlerinnen und Wissenschaftler vor Herausforderungen. Denn während bei KI-Systemen für die Industrie bereits im Entwicklungsprozess festgelegt werden kann, welchen Autonomiegrad sie haben sollen, brauchen selbstlernende Systeme, die bei Naturkatastrophen oder Löscharbeiten zum Einsatz kommen, einen flexiblen Autonomiegrad, der sich an die vorgefundene Lage anpassen kann. Ein Whitepaper der Plattform Lernende Systeme zeigt nun, wie das gelingen kann.

Autonomie allein reicht nicht aus

„Beim Einsatz selbstlernender Roboter in lebensfeindlichen Umgebungen gilt: soviel Autonomie wie möglich, so wenig menschlicher Eingriff wie nötig. Das KI-System kann den Menschen nur dann vor Gefahren schützen, wenn es seine Aufgaben eigenständig und zuverlässig erledigt. Andererseits ergeben sich in gefährlichen Umgebungen schnell unvorhersehbare Situationen, in denen der Mensch ins Geschehen eingreifen können muss, zum Beispiel bei der Entscheidung, welches Brandopfer zuerst geborgen wird“, erklärt Jürgen Beyerer, Leiter der Arbeitsgruppe „Lebensfeindliche Umgebungen“ der Plattform Lernende Systeme.

Einem wird schnell klar: Statt der in anderen Einsatzbereichen etablierten starren Konzepte für Autonomiestufen sind variable und kontinuierlich veränderbare Autonomiegrade notwendig, damit der selbstlernende Roboter in jeglichen Situationen sicher agieren kann. Denn nur dann muss der Mensch den Einsatz des autonomen Systems nicht andauernd mitverfolgen, sondern gewinnt durch die Arbeitsteilung Zeit, in der er wichtigere Aufgaben erledigen kann. Aufgrund der dynamischen Anforderungen von lebensfeindlichen Umgebungen ist es jedoch auch unabdingbar, dass das autonome System seine Lage und Kompetenzen selbstständig einschätzt und die Hilfe des Menschen anfordert, wenn es auf Probleme trifft, die es nicht selbst lösen kann.

Bislang besitzen autonome Systeme für gefährliche Umgebungen noch nicht die Fähigkeit, ihre Kompetenzen zu analysieren und in Bezug zu einer Handlung zu setzen, weshalb ihre Einsätze zum gegenwärtigen Zeitpunkt nicht ohne den Menschen als Überwacher ablaufen. Und auch in Zukunft wird der Mensch in Zweifelsfällen die Entscheidungsgewalt haben.

Dieser Artikel stammt von unserem Partnerportal Industry of Things.

(ID:47263134)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung