Explanatory Interactive Learning Man kann der KI vertrauen – aber nicht blind

Von Claudia Staub* |

Anbieter zum Thema

Künstliche Intelligenz ist ein viel diskutiertes Thema. Nicht selten spielt auch Skepsis der Technologie gegenüber eine Rolle. Dabei ist diese durchaus vertrauenswürdig und kann in vielen Bereich hilfreich sein. Ein neuer Ansatz des interaktiven Lernens soll dabei helfen, das Vertrauen in Künstliche Intelligenz zu stärken.

Vertrauen in KI ist gut und wichtig - doch manchmal macht auch die KI beim Lernen Fehler. Man sollte sich also nicht blind auf sie verlassen.
Vertrauen in KI ist gut und wichtig - doch manchmal macht auch die KI beim Lernen Fehler. Man sollte sich also nicht blind auf sie verlassen.
(Bild: gemeinfrei / Pixabay)

Unter der Leitung von Professor Kristian Kersting beschäftigt sich ein Forscherteam an der TU Darmstadt mit dem sogenannten explanatory interactive learning (IXL). Der Ansatz soll dabei helfen, Voraussagen mit falschen Erklärungen durch interaktives Lernen zu korrigieren. In der Zeitschrift Nature Machine Intelligence erklären sie, wie.

Ein Beispiel: Möchte eine Firma einer Künstlichen Intelligenz beibringen, auf Fotos ein Pferd zu erkennen, wird die KI mit mehreren Tausend Aufnahmen von Pferden trainiert, bis diese das Pferd auch auf unbekannten Aufnahmen identifizieren kann. Die KI lernt schnell – wie ihr die Unterscheidung gelingt, weiß die Firma nicht, aber das ist ihr egal. Sie ist begeistert, wie zuverlässig es klappt. Doch dann stellt sich heraus: die KI erkannte die Pferde nur anhand einer Copyright-Angabe, die in jedem Bild unten rechts zu erkennen war. In der Forschung wird hier von sogenannten Confounders gesprochen. Das sind Störfaktoren, die mit der eigentlichen Identifikation nichts zu tun haben sollten. In diesem Fall erkennt die KI also so lange die Pferde auf vergleichbaren Bildern, bis die Copyright-Angabe fehlt. Dann hat auch die KI ein Problem.

Das Vertrauensproblem von KI

Mehrere Studien belegen die Häufigkeit diese Confounders in KI-Systemen und zeigen auf, wie diese aufgedeckt werden können. Die Confounders sind auch als Clever-Hans-Phänomen bekannt, benannt nach einem Pferd, das Anfang des vergangenen Jahrhunderts angeblich rechnen konnte, aber tatsächlich nur an der Körpersprache des Fragestellers die richtige Antwort ablas. „Eine KI, die als Clever Hans bezeichnet wird, lernt aus falschen Gründen die richtigen Schlüsse zu ziehen,“ sagt Kristian Kersting, Professor für Künstliche Intelligenz und Maschinelles Lernen am Fachbereich Informatik der Technischen Universität Darmstadt. Dies stellt schon seit geraumer Zeit ein Problem für Forschende im Bereich KI dar.

Die Folgen dieses Problems sind laut Kersting weitreichend. Er entwickelt mit seinem Team KI-Lösungen, um die Resistenz von Pflanzen gegenüber Schädlingen bestimmbar zu machen oder einen Befall frühzeitig zu erkennen, bevor das mit dem menschlichen Auge überhaupt möglich wäre. Damit KI-basierte Anwendungen wie diese aber wirklich erfolgreich sein können, muss von Seiten der Experten ein Vertrauen gegenüber Künstlicher Intelligenz vorhanden sein. Ist dies jedoch nicht der Fall, geht die Chance verloren, die Technologie zum Schutz der Pflanzen in Zeiten der Klimaerwärmung einzusetzen.

Fachleute im KI-Lernprozess einbinden

Mit interaktivem Lernen soll es gelingen, Vertrauen in Künstliche Intelligenz aufzubauen. Gemeint ist damit die Einbindung von Fachleuten in den Lernprozess. Dafür müssen sie verstehen, was die KI tatsächlich macht. Genau genommen muss die KI Informationen über das aktive Lernen liefern, zum Beispiel, welche Informationen sie aus einer Trainingsinstanz wie dem Bild eines Pferdes herausnimmt, sowie eine Erklärung, wie sie aus dieser Information eine Voraussage ableitet. Menschen mit Fachexpertise können nun beides prüfen. Ist die Voraussage grundsätzlich falsch, kann die KI neue Regeln lernen. Sind Voraussagen und die Erklärung korrekt, müssen die Fachleute nichts tun. Ist die Voraussage jedoch korrekt, aber die Erklärung falsch, stehen sie vor einem Problem: Wie kann man einer KI vermitteln, dass die Erklärung falsch ist?

Explanatory interactive learning zur Korrektur falscher Erklärungen

Dafür gibt es eine Strategie, die Forschende als explanatory interactive learning (XIL) bezeichnen. Im Grunde zeigt der KI-Experte durch entsprechende Beispieldaten, dass die angenommenen Unterscheidungsmerkmale keine Confounders und damit nicht relevant sind. Im eingangs erwähnten Beispiel zeigt die KI, dass sie die Copyright-Informationen für relevant hielt. Fachlich Versierte würden Bilder zurückspielen, in denen anstelle der Copyright-Information per Zufall andere Bildinformationen eingeblendet sind – die KI wird die Copyright-Informationen dann immer weniger berücksichtigen.

Das TU-Forschungsteam testete seine Methode anhand eines Datensatzes zur Cercospora-Blattfleckenkrankheit, eine weltweit verbreitete, schädliche Blattkrankheit an Zuckerrüben. Die Voraussagen der KI – ein Deep Neural Network (DNN) – wirkten anfangs sehr zuverlässig. Jedoch lernte das DNN, sich in hyperspektralen Daten auf Bereiche zu konzentrieren, die laut Pflanzenexpertin nicht ausschlaggebend sein konnten, um den Schädling zu identifizieren. Dann fand eine Korrektur durch explanatory interactive learning (XIL) statt. Die Trefferquote ging zwar zurück, jedoch konnte die KI aus den richtigen Gründen die richtigen Schlüsse ziehen. Zwar lernt die KI so etwas langsamer, die Voraussagen sind auf lange Sicht jedoch verlässlicher und somit für Fachpersonal auch sinnvoll einsetzbar.

„Interaktion und Verständlichkeit sind für das Vertrauen in maschinelle Lernverfahren somit von zentraler Bedeutung“, sagt Kersting. Überraschenderweise wurde der Zusammenhang zwischen Interaktion, Erklärung und Vertrauensbildung bislang in der Forschung weitgehend ignoriert.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Originalpublikation

Patrick Schramowski, Wolfgang Stammer, Stefano Teso, Anna Brugger, Franziska Herbert, Xiaoting Shao, Hans-Georg Luigs, Anne-Katrin Mahlein & Kristian Kersting, „Making deep neural networks right for the right scientific reasons by interacting with their explanations“, Nature Machine Intelligence 2, 476-486 (2020)

Zur Veröffentlichung

Dieser Artikel stammt von unserem Partnerportal Industry of Things. Verantwortliche Redakteurin: Vivien Deffner

* Claudia Staub arbeitet in der Stabsstelle Kommunikation und Medien an der Technischen Universität Darmstadt.

(ID:46860675)