Tag der offenen Tür CAI stellt praxisnahe Vorteile von KI-Erklärbarkeit vor

Von Martin Hensel |

Anbieter zum Thema

Die Projektgruppe Comprehensible Artificial Intelligence (CAI) veranstaltete am 23. Mai ihren Tag der offenen Tür. Zu der Veranstaltung konnte die Kooperation des Fraunhofer IIS und der Universität Bamberg Vertreter aus Politik, Industrie und Wissenschaft begrüßen.

CAI-Projektleiterin Prof. Dr. Ute Schmid
CAI-Projektleiterin Prof. Dr. Ute Schmid
(Bild: CAI)

Um KI in der Praxis sicher und sinnvoll einzusetzen, muss maschinelles Lernen (ML) für die Benutzer nachvollziehbar sein. Dieser Erklärbarkeit widmet sich die seit Anfang 2020 bestehende Projektgruppe CAI des Fraunhofer-Instituts für Integrierte Schaltungen (IIS) an der Universität Bamberg.

Die Nachvollziehbarkeit von KI-Entscheidungen ist insbesondere in sensiblen oder sicherheitskritischen Bereichen wie etwa bildbasierte medizinische Diagnostik oder industrielle Qualitätskontrolle wichtig, um Fehler zu vermeiden. Hybride Verfahren kombinieren wissensbasierte KI-Methoden mit Machine Learning und ermöglichen damit in hochspezialisierten Umgebungen datensparsames Lernen und das Training neuronaler Netze.

Wissen systematisch nutzen

Die Projektgruppe unter Leitung von Prof. Dr. Ute Schmid arbeitet an Methoden, um systematisch Vorwissen beim maschinellen Lernen zu nutzen. Zudem entwickelt sie Ansätze zum interaktiven Machine Learning, die gelernte Modelle schrittweise durch gezielte Korrekturen von Systementscheidungen verbessern sollen. Die Entscheidungsfindung wird durch Erklärungen von Blackbox-ML unterstützt, die auf Erkenntnissen aus der Kognitionspsychologie beruhen. Visuelle Hervorhebungen, textliche Erklärungen und Beispiele verdeutlichen die Entscheidung eines Klassifikators.

Ein weiteres zentrales Ziel der CAI-Projektgruppe ist die Übertragung der Forschung in die Praxis. Dazu engagiert sich das Projektteam in Fachverbänden, initiiert Forschungsvorhaben und sorgt für die Akquise und Qualifizierung wissenschaftlichen Personals. So engagiert sich Prof. Dr. Schmid in verschiedenen Bereichen des Fraunhofer IIS, unter anderem in Projekten wie humanzentrierte KI in der chemischen Industrie oder der Entwicklung grundlegender Methoden der Interaktion zwischen Mensch und KI.

„Die Arbeit am Fraunhofer IIS ist für mich eine große Bereicherung, weil sie mir die Möglichkeit bietet, Grundlagenforschung unserer Gruppe Kognitive Systeme an der Universität Bamberg näher an die Anwendung zu bringen. Der regelmäßige Austausch in der Abteilung Sensory Perception and Analytics und weiteren Gruppen am Fraunhofer IIS gibt immer wieder spannende Impulse für Umsetzungs- und Anwendungsmöglichkeiten für unsere Methoden des hybriden und nachvollziehbaren Maschinellen Lernens“, erklärt Prof. Dr. Schmid.

(ID:48397819)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung