Forschungsbericht in „Nature Machine Intelligence“ Bessere Interaktion mit Künstlicher Intelligenz

Von Bernhard Lück Lesedauer: 4 min |

Anbieter zum Thema

Die TU Darmstadt, Hessian.AI und das Deutsche Forschungszentrum für Künstliche Intelligenz haben eine Methode vorgestellt, die das Geben menschlichen Feedbacks an eine lernende Software erheblich vereinfacht. Die Arbeit erscheint im Fachmagazin „Nature Machine Intelligence“.

Die Eloquenz einer Software wie ChatGPT stammt nicht nur vom Training mit Millionen digitalen Texten, sondern auch von einer Verfeinerung dieses Trainings im Dialog mit dem Menschen.
Die Eloquenz einer Software wie ChatGPT stammt nicht nur vom Training mit Millionen digitalen Texten, sondern auch von einer Verfeinerung dieses Trainings im Dialog mit dem Menschen.
(Bild: © – Limitless Visions – stock.adobe.com)

Alle Welt staunt über ChatGPT: Die Sprach-KI beantwortet Fragen, schreibt Referate und spuckt sogar Gedichte aus. Zum Erfolg der lernfähigen Software trägt ihr menschlicher Schreibstil bei. Für Felix Friedrich von der TU Darmstadt ist ChatGPT ein Beispiel dafür, wie wichtig die Interaktion zwischen Mensch und Maschine ist. Denn die Eloquenz der Software stammt nicht nur von den Millionen an digitalen Texten, mit denen sie sich selbst trainiert hat, sondern auch von einer Verfeinerung dieses Trainings im Dialog mit dem Menschen.

Viele KI-Algorithmen profitieren bereits von Feedback durch den Menschen, wie Darmstädter Forscher um Prof. Kristian Kersting vom Fachbereich Informatik in den letzten Jahren gezeigt haben. Jedoch sei das Potenzial bei Weitem noch nicht ausgeschöpft, ist Felix Friedrich überzeugt, der bei Kersting promoviert. Nun stellt der Informatiker zusammen mit Kollegen eine Methode vor, die das Geben menschlichen Feedbacks erheblich vereinfacht. Die Arbeit erscheint in der aktuellen Ausgabe des renommierten Fachmagazins „Nature Machine Intelligence“.

Deep-Learning-Fehler mit Explainable AI aufspüren

Um mit Maschinen zu kommunizieren, muss man sie verstehen. Doch das ist bei der aktuell meist verwendeten Form von KI, dem sogenannten Deep Learning, schwierig. Deep Learning ist inspiriert durch neuronale Verbindungen in biologischen Gehirnen. Große Deep-Learning-Netze besitzen Milliarden Verbindungen zwischen virtuellen Neuronen. Es ist schwer nachvollziehbar, welche Signale zu einer Entscheidung der KI beitragen und welche nicht, wie die Software also zu ihrem Ergebnis kommt. Sie ähnelt einer Blackbox.

„Oft fragt man auch nicht danach, solange die KI funktioniert“, sagt Friedrich. Dadurch übersieht man aber leicht, wenn die KI sogenannte „Abkürzungen“ nimmt, die zu Fehlern führen können. Was sind solche Abkürzungen? Deep Learning wird oft eingesetzt, um auf Bildern bestimmte Objekte zu erkennen, beispielsweise: Eisbären. Zum Training setzt man ihr sehr viele Bilder von Eisbären vor, wodurch sie anhand der Gemeinsamkeiten lernen soll, was einen Eisbären ausmacht. Nun kann es sein, dass die KI es sich einfach macht. Wenn bei den Trainingsbildern immer Schnee im Hintergrund war, dann nimmt sie diesen Schnee im Hintergrund als Kennzeichen für ein Eisbärbild, statt den Eisbären selbst. Erscheint nun ein Braunbär vor verschneiter Landschaft, erkennt die KI diesen fälschlich als Eisbären.

Mithilfe einer Methode namens Explainable AI lassen sich solche Fehler aufspüren. Dabei zeigt der Deep-Learning-Algorithmus, welche Muster er für seine Entscheidung verwendet hat. Wenn es die falschen waren, kann ein Mensch dies an die KI zurückmelden, etwa indem er die richtigen Muster zeigt (z. B. die Umrisse des Bären) oder die falschen als falsch markiert. Dieses Feedback-Verfahren bezeichnen die Forscher als Explanatory Interactive Learning (XIL).

Explanatory Interactive Learning (XIL)

Die Darmstädter Forscher haben nun mehrere existierende XIL-Verfahren untersucht. „Das hatte noch nie jemand systematisch getan“, sagt Felix Friedrich. Akribisch analysierten die Forscher, wie die Interaktion mit dem Computer bei den jeweiligen Methoden abläuft und wo Effizienzgewinne möglich sind. Sie unterschieden, welche Komponenten einer Erklärung wichtig sind und welche nicht. „Es stellte sich heraus, dass es nicht nötig ist, Tausende von Markierungen an die Maschine rückzumelden, sondern dass oft eine Handvoll Interaktionen reichen“, sagt Friedrich. Oft genüge es, der KI zu sagen, was nicht zum Objekt gehört, statt zu definieren, was dazugehört.

Konkret haben die Forscher einer KI die Aufgabe gegeben, eine handgeschriebene „1“ zu erkennen. In der Ecke jedes Trainingsbildes war aber auch ein kleines Quadrat. Wenn der Algorithmus dies fälschlicherweise als relevantes Merkmal für die „1“ nimmt, reicht es, das Quadrat als nicht zum Objekt gehörig zu markieren. „Das ist viel effektiver, denn generell ist schwierig zu definieren, was z. B. einen Eisvogel auszeichnet“, erklärt Friedrich.

Die Darmstädter Forscher haben aus den untersuchten XIL-Verfahren eine Strategie („Typology“) destilliert, mit der sich das beschriebene Abkürzungsverhalten effizient beheben lässt.

Nächstes Projekt: unvoreingenommene Text-zu-Bildgeneratoren

Felix Friedrich und seine Kollegen arbeiten schon am nächsten Projekt, das die Interaktion zwischen Mensch und Maschine verbessern soll. Diesmal geht es um Text-zu-Bildgeneratoren, die oft einen „Bias“ haben. Auf die Anweisung, einen „Firefighter“ (das geschlechtsneutrale englische Wort für „Feuerwehrmann“) darzustellen, erzeugen sie meist Bilder von weißen Männern mit Feuerwehrhelm, was daran liegt, dass in den Trainingsdaten Bilder von männlichen, weißen Feuerwehrleuten dominieren. Durch menschliche Interaktion wollen die Darmstädter die Trainingsdaten für solche Bildgeneratoren diverser machen, durch Filterung, aber auch durch Hinzufügen von Bildern, etwa von farbigen Feuerwehrleuten. Felix Friedrich kommt damit seinem Ziel einer „Human-guided machine ethics“ näher.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Die Autoren der Veröffentlichung forschen an der Technischen Universität Darmstadt, am Hessischen Zentrum für Künstliche Intelligenz Hessian.AI und am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Die Forschung ist Teil des Clusterprojekts „3AI – The Third Wave of Artificial Intelligence“.

(ID:49250037)