Künstliche Intelligenz in der Medizin Von Black Box zu Glasbox: „Liberate AI“ entwickelt erklärbare KI für Schlaganfallbehandlung

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Das Projekt Liberate AI verbindet Medizin, Datenanalyse und Informationssicherheit, um Entscheidungen bei der Behandlung von Schlaganfällen zu unterstützten. Im Fokus stehen Erklärbarkeit, Subgruppenanalysen und privatsphäreschonendes Training durch Swarm Learning.

Das Forschungsprojekt Liberate AI entwickelt ein erklärbares KI-Modell zur Schlaganfallbehandlung. Es nutzt Swarm Learning, Subgruppenanalysen und Ansätze für kausale Vorhersagen.(Bild:  CISPA)
Das Forschungsprojekt Liberate AI entwickelt ein erklärbares KI-Modell zur Schlaganfallbehandlung. Es nutzt Swarm Learning, Subgruppenanalysen und Ansätze für kausale Vorhersagen.
(Bild: CISPA)

Das Forschungsprojekt Liberate AI will die bislang häufig als Black Box eingesetzte Künstliche Intelligenz (KI) in der Medizin transparenter machen. Ziel ist ein digitales Assistenzsystem, das bei der Entscheidung über die mechanische Thrombektomie – einem minimalinvasiven Eingriff zur Beseitigung von Blutgerinnseln im Gehirn – unterstützen kann. Entwickelt wird das Modell vom Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE), dem Universitätsklinikum Bonn (UKB) und dem CISPA Helmholtz-Zentrum für Informationssicherheit und wird durch die Helmholtz-Gemeinschaft mit 250.000 Euro gefördert.

Für das Training setzt das Projekt auf Swarm Learning, eine vom DZNE gemeinsam mit Hewlett Packard Enterprise entwickelte Technologie. Dabei werden die medizinischen Daten – darunter Registereinträge sowie MRT- und CT-Aufnahmen – nicht zentral zusammengeführt, sondern bleiben an den jeweiligen Standorten. Das Modell „reist“ virtuell zu den Datenquellen und aggregiert dort Wissen, ohne dass sensible Informationen übertragen werden.

Auf dem Weg zur Glasbox: Erklärbarkeit ist entscheidend

Eine der größten Herausforderungen betrifft die Erklärbarkeit der Vorhersagen. Anders als Black-Box-Systeme soll die Glasbox-KI den behandelnden Ärzten nachvollziehbar darlegen, auf welchen Faktoren ihre Empfehlungen beruhen, „denn wenn eine KI ‚Ja‘ oder ‚Nein‘ sagt, dann ist die erste Frage: ‚Warum sollte ich dir vertrauen?‘“, erklärt Prof. Dr. Jilles Vreeken vom CISPA. Transparenz sei entscheidend, damit Mediziner echte von zufälligen Biomarkern unterscheiden können.

Vreeken und seine Forschungsgruppe haben es sich zum Ziel gesetzt, ein transparentes KI-Modell zu entwickeln. Im Kontext von Swarm Learning bringt Erklärbarkeit jedoch besondere technologische Herausforderungen mit sich. „Wir müssen bedenken, dass wir zwar diese Glasbox-KI entwickeln können, sie muss aber immer noch in der Lage sein, in einer Swarm-Learning-Umgebung zu lernen und genauso zuverlässige Vorhersagen zu treffen wie eine Black-Box-KI.

Neben der Erklärbarkeit konzentriere sich das Projekt auch auf die Identifikation von Subgruppen. Das Modell soll in der Lage sein, Patientengruppen mit spezifischen Eigenschaften – etwa bestimmte Blutdruckwerte oder genetische Faktoren – zu erkennen und so differenziertere Aussagen über Behandlungserfolg und Komplikationsrisiken zu ermöglichen.

Langfristig verfolgen die Forscher das Ziel, ein KI-System mit kausalen Garantien zu entwickeln. Es soll nicht nur Korrelationen darstellen, sondern auch begründen können, warum bestimmte Faktoren den Behandlungserfolg beeinflussen. Selbst wenn dieses Ziel nicht vollständig erreicht werde, verspricht sich das Projektteam einen wesentlichen Beitrag zur klinischen Anwendbarkeit von KI.

(ID:50576666)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung