Erklärbarkeit in KI-Systemen Paderborner Forschungsgruppe analysiert, was Nutzer beim Verstehen von KI brauchen

Von Berk Kutsal 1 min Lesedauer

Anbieter zum Thema

Im Sonderforschungsbereich TRR 318 untersuchen Forscher aus Psychologie, Informatik und Soziologie, wie erklärbare Künstliche Intelligenz (KI) besser auf individuelle Nutzerbedürfnisse eingehen kann. Im Fokus: der Unterschied zwischen Wissen, das zum Handeln befähigt, und Wissen, das Zusammenhänge offenlegt.

Erklären und Verstehen sind auch immer eine Frage der Perspektive.(Bild:  Universität Paderborn, Pollmeier)
Erklären und Verstehen sind auch immer eine Frage der Perspektive.
(Bild: Universität Paderborn, Pollmeier)

Künstliche Intelligenz soll nicht nur Entscheidungen treffen, sondern diese auch nachvollziehbar machen – so das Ziel des Sonderforschungsbereichs TRR 318 „Constructing Explainability“, getragen von den Universitäten Paderborn und Bielefeld. In der Synthesegruppe „Understanding“ arbeitet ein interdisziplinäres Team daran, zu klären, was Nutzer verstehen müssen – und wie sie dorthin gelangen.

„Das Ziel von Erklärungen ist – in der Regel –, dass Menschen am Ende etwas verstehen“, so Prof. Dr. Heike M. Buhl, Professorin für Pädagogische Psychologie und Mitglied des Organisationsteams. Dabei sei Verstehen nicht gleich Verstehen: Die Forscher unterscheiden zwischen konzeptuellem Wissen („Wissen, dass …“) und anwendungsbezogener Handlungsfähigkeit („Wissen, wie …“), sowie zwischen oberflächlichem und tiefem Verständnis.

Gerade im Alltag reiche es oft, einfache Abläufe zu verstehen – etwa bei einer KI-gestützten Sprachsteuerung. In sicherheitsrelevanten oder komplexen Kontexten jedoch sei ein tieferes Verständnis erforderlich. Damit KI-Systeme diese Unterschiede erkennen, brauche es adaptive Erklärmodelle: eine Interaktion, die – ähnlich wie im menschlichen Dialog – Rückfragen zulässt, Kontext bezieht und auf Vorwissen eingeht.

Die Synthesegruppe verweist auf erste Ergebnisse, wonach Nutzerinteressen und Verständniswege stark variieren – abhängig vom Vorwissen, aber auch vom situativen Interesse. Erklärbarkeit dürfe daher nicht statisch gedacht werden. Verstehen sei ein Prozess, nicht ein Produkt.

Der TRR 318 will damit Grundlagen schaffen für KI-Systeme, die Nutzer dort abholen, wo sie stehen – und nicht dort, wo Entwickler sie verorten.

(ID:50550572)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung