Neue Frameworks für Künstliche Intelligenz (KI) Die Frage nach der Verantwortung bei Fehlern der KI

Wird Künstliche Intelligenz (KI) in kritischen oder sensiblen Bereichen eingesetzt und es kommt zu einem Fehler, stellt sich schnell die Frage nach der Verantwortung. Die Antwort auf diese Frage ist aber gar nicht so einfach. Trotzdem muss sie zwingend gefunden werden. Eine neues Framework der EU will dabei helfen, die Verantwortung bei KI zu klären. Wir geben einen Überblick.

Anbieter zum Thema

KI ist eine Chance, aber auch ein Risiko. Wie geht man mit durch KIs verursachten Fehlern um, wer trägt die Verantwortung?
KI ist eine Chance, aber auch ein Risiko. Wie geht man mit durch KIs verursachten Fehlern um, wer trägt die Verantwortung?
(Bild: Kaikoro - stock.adobe.com)

Künstliche Intelligenz wird in der Bevölkerung zunehmend positiv gesehen, meldete der Digitalverband Bitkom. So geben fast drei Viertel (72 Prozent) der Bundesbürgerinnen und Bundesbürger an, dass sie Künstliche Intelligenz ausschließlich (27 Prozent) oder eher (45 Prozent) als Chance sehen.

„Künstliche Intelligenz ist eine Schlüsseltechnologie, die uns schon heute vielfach im Alltag begegnet – vom Sprachassistenten auf dem Smartphone bis zur Routenplanung. Mit den Fortschritten insbesondere in Sprach- und Bilderkennung werden KI-gestützte Systeme in praktisch allen Lebensbereichen zunehmend an Bedeutung gewinnen“, sagte Bitkom-Präsident Achim Berg.

Doch nicht jeder Einsatzbereich für KI stößt auf die gleiche Offenheit in der Bevölkerung: Keine Mehrheit findet der KI-Einsatz derzeit bei Gericht (48 Prozent), zum Beispiel um Prozessunterlagen schneller auswerten zu können.

Offensichtlich fehlt hier noch das Vertrauen in KI, denn man fürchtet, die KI könnte ja auch Fehler machen. Damit mehr Vertrauen möglich wird, gilt es, die Verantwortung für die jeweilige KI zu klären. Wer ist zuständig, wenn es zu einem Fehler kommt, wer haftet womöglich, wer sorgt sich darum, dass die KI wirklich sicher ist, das sind durchaus berechtigte Fragen von Verbraucherinnen und Verbrauchern.

Aber auch die Unternehmen als KI-Nutzer oder KI-Anbieter müssen wissen, wer die Verantwortung trägt. Sonst kann es letztlich keine KI-Compliance geben, da sich jeder einfach auf den anderen verlassen könnte.

KI selbst kann nicht verantwortlich sein

Im Zusammenhang mit KI kommt die Frage nach der Verantwortung vor allem dann auf, wenn es um die Folgen ihres Einsatzes geht, insbesondere wenn Fehler eintreten.

„Um Verantwortung tragen zu können, muss ein Subjekt im klassischen Sinne handlungsfähig sein, also Entscheidungen treffen können“, so Felicia Kuckertz, Ludwig-Maximilians-Universität München. Ihrer Ansicht nach trifft all dies auf eine KI nicht zu, deshalb lasse sich eine Verantwortung für das Verhalten nicht an die KI selbst delegieren. Stattdessen sieht sie verschiedene Instanzen in der Verantwortung, zu denen unterschiedliche Personengruppen gehören, etwa Entwickler, Hersteller sowie politische und gesellschaftliche Akteure.

Damit möglichst wenig Fehler beim Einsatz etwa von autonomen Fahrzeugen oder Pflegerobotern auftreten, muss KI-gesteuerte Software vertrauenswürdig sein. Fiorella Battaglia, Privatdozentin am Lehrstuhl für Philosophie und politische Theorie an der LMU, führte aus, dass dieser Begriff mit normativen Erwartungen verbunden ist: „Vertrauenswürdige KI zeichnet sich durch drei Komponenten aus: Sie sollte rechtmäßig, ethisch und robust sein.“ In der Praxis könne es allerdings zu Spannungen kommen, etwa weil das System nicht durchschaubar ist oder es zu Diskriminierungen führt. Doch wie lässt sich die Frage nach der Verantwortung genauer klären?

Ein Weg besteht darin, Verantwortung zu übernehmen

Unternehmen wie Microsoft, Deutsche Telekom, Bosch, IBM, Samsung oder Google haben eigene KI-Richtlinien veröffentlicht, in der auch Fragen der Verantwortung behandelt werden. So schreibt zum Beispiel die Deutsche Telekom: „Der Mensch bleibt immer in der Verantwortung. Für unsere Lösungen ist klar definiert, wer für welches KI-System und welche KI-Funktion verantwortlich ist. Wir tragen die Verantwortung für unsere Produkte und Dienste – und wir wissen, wer seitens unserer Partner und Dienstleister die Verantwortung für die KI-Systeme trägt.“

Doch auch gerade öffentliche Bereiche wie Justiz und Strafverfolgung müssen sich mit der Verantwortung für KI befassen, und das tun sie auch.

Neues Framework auf EU-Ebene für KI-Verantwortung

So wurde ein neues Accountability Framework zur transparenten und verantwortungsvollen Nutzung künstlicher Intelligenz ins Leben gerufen. Fünf EU-Agenturen für Justiz und Inneres haben mit CENTRIC-Forschern zusammengearbeitet, um den weltweit ersten „KI-Rechenschaftsrahmen“ zu schaffen.

Das Projekt Accountability Principles for Artificial Intelligence (AP4AI) wird unter anderem vom Centre of Excellence in Terrorism, Resilience, Intelligence and Organized Crime Research (CENTRIC) und dem Europol Innovation Lab durchgeführt. Das Ziel des AP4AI-Projekts ist es, ein praktisches Toolkit zu erstellen, das die KI-Verantwortlichkeit direkt und sinnvoll unterstützt, wenn es im Bereich der internen Sicherheit implementiert wird.

Seit 2021 entwickelten die Projektpartner in Absprache mit Experten in 28 Ländern, darunter Strafverfolgungsbeamte, Anwälte und Staatsanwälte, Datenschutz- und Grundrechtsexperten sowie Technik- und Branchenexperten, KI-Rechenschaftsprinzipien.

Im Rahmen des AP4AI-Projekts wurden mehr als 5500 Bürger in 30 Ländern befragt, um die öffentlichen Erwartungen an die Rechenschaftspflicht von KI zu untersuchen. Die Ergebnisse zeigen, dass zwar Bedenken hinsichtlich des Einsatzes von KI durch Polizeikräfte bestehen, die Bürger aber auch ein großes Potenzial im Einsatz von KI für interne Sicherheitszwecke sehen. Über 90 Prozent der befragten Bürgerinnen und Bürger erwarten, dass die Polizei für die Art und Weise, wie sie KI einsetzt, und ihre Folgen zur Rechenschaft gezogen wird.

Der nächste Schritt in dem Projekt besteht nun darin, das AI Accountability Framework in ein Toolkit zu übersetzen, um Anwendern zu helfen, die Accountability Principles für verschiedene Anwendungen von KI im Bereich der internen Sicherheit konkret umzusetzen. Das Toolkit wird frei verfügbar sein und soll dazu beitragen, den verantwortungsvollen und transparenten Einsatz von KI-Instrumenten für die innere Sicherheit im Einklang mit den Werten und Grundrechten der EU sicherzustellen.

Orientierung für andere Bereiche der KI-Nutzung

Catherine De Bolle, Exekutivdirektorin von Europol, erklärte dazu: Ich bin zuversichtlich, dass das AP4AI-Projekt den Strafverfolgungsbehörden, der Strafjustiz und anderen Sicherheitspraktikern, die innovative KI-Lösungen entwickeln wollen, unschätzbare praktische Unterstützung bieten wird, während sie die Grundrechte respektiert und den Bürgern gegenüber uneingeschränkt rechenschaftspflichtig ist.“

Auch wenn das Projekt den Fokus der inneren Sicherheit hat, kann es wertvolle Impulse geben für Frameworks in anderen Bereichen, um die Verantwortung und Rechenschaftspflicht für die KI-Nutzung zu regeln.

(ID:48200815)