Kommentar von Dr. Frank Schlottmann, msg Der AI Act – Regulierung oder Bremsklotz für die europäische KI?

Von Dr. Frank Schlottmann Lesedauer: 4 min |

Anbieter zum Thema

Mit dem AI Act wird voraussichtlich noch in diesem Jahr ein weltweit erstes, bindendes Regularium zum Einsatz von KI verabschiedet werden. Ob dies für Europa und Deutschland eine Chance oder einen Stolperstein bedeutet, hängt insbesondere von der finalen Ausgestaltung des Entwurfs ab.

Der Autor: Dr. Frank Schlottmann setzt bereits seit 25 Jahren Künstliche Intelligenz in der Forschung und für Unternehmensanwendungen ein. Er war langjähriger Lehrbeauftragter für Künstliche Intelligenz am Karlsruher Institut für Technologie. Seit Januar 2021 ist er Vorstandsmitglied bei msg und verantwortet unter anderem das Bankengeschäft, den branchenübergreifenden Bereich Artificial Intelligence sowie Compliance und Legal.
Der Autor: Dr. Frank Schlottmann setzt bereits seit 25 Jahren Künstliche Intelligenz in der Forschung und für Unternehmensanwendungen ein. Er war langjähriger Lehrbeauftragter für Künstliche Intelligenz am Karlsruher Institut für Technologie. Seit Januar 2021 ist er Vorstandsmitglied bei msg und verantwortet unter anderem das Bankengeschäft, den branchenübergreifenden Bereich Artificial Intelligence sowie Compliance und Legal.
(Bild: msg)

Künstliche Intelligenz verbanden lange viele mit Science-Fiction oder dystopischen Szenarien. Diese Zeiten sind jedoch vorbei: Laut einer im Juli 2023 veröffentlichten Bitkom-Studie ist KI mittlerweile einer großen Mehrheit der deutschen Bevölkerung bekannt (92 Prozent). Ein Jahr zuvor waren es noch 86 Prozent. Zudem traut sich mehr als die Hälfte (56 Prozent) sogar zu, den Begriff zu erklären. Diese Ergebnisse zeigen: KI ist in der Mitte der Gesellschaft angekommen. Dennoch bestehen noch Vorbehalte und Ängste. Man fühlt sich erinnert an die 1990er-Jahre, als sich E-Commerce langsam etablierte und eine große Verunsicherung gegenüber den neuen technischen Möglichkeiten und Geschäftsmodellen spürbar war.

Weltweit wird deshalb über KI-Regulierungsansätze diskutiert. In der EU etwa steht der Abschluss des AI Acts unmittelbar bevor. Dieses Vorhaben ist grundsätzlich positiv zu bewerten – schließlich trägt es dazu bei, die Sorgen vor für die Gesellschaft schädlichen Auswirkungen durch KI-Technologien zu lindern. Es ist gut, dass die EU in dieser Hinsicht eine Vorreiterrolle einnimmt. Gleichzeitig ist jedoch wichtig, dass wir die KI nicht überregulieren. Denn geschieht das, finden die Innovationen einfach woanders statt – eben gerade in Ländern wie China und den USA, die aufgrund milliardenschwerer Investitionen ohnehin schon die „KI-Nase“ vorne haben. Es darf am Ende nicht darauf hinauslaufen, dass wir unsere eigenen KI-Entwicklungen „made in Europe“ behindern. Europa muss seine Souveränität in Form unterschiedlicher KI-Systeme durch ein Angebot an europäischen Alternativen sichern.

Chancen und Risiken

Der risikobasierte Ansatz, den der AI Act verfolgt, geht grundsätzlich in die richtige Richtung. Im Gesetzesentwurf wird die Regulierung von KI nach Risikokategorien differenziert. Der Einsatz von KI wäre demnach verboten, sofern er mit inakzeptablen Risiken einhergeht. Als inakzeptabel gelten Programme, die mit Gefahren für Menschen bzw. einer Verletzung von Persönlichkeitsrechten verbunden sind. Etwa solche Anwendungen, die Menschen manipulieren oder im Rahmen eines Social Scoring zum Einsatz kommen. In die Kategorie Hochrisiko-KI-Systeme fallen wiederum diejenigen Anwendungen, die mit personenbezogenen Daten oder einer kritischen Infrastruktur arbeiten, etwa eine Personalmanagementsoftware oder KI in hochregulierten Bereichen wie etwa im Finanzwesen. In diesem Fall ist KI nicht kategorisch verboten, sondern steht unter dem Erlaubnisvorbehalt, dass im Einzelfall die gesetzlich definierten Anforderungen eingehalten werden. Andere KI-Systeme, die als weniger riskant betrachtet werden, unterliegen hingegen deutlich weniger Restriktionen – u.a. sind hier Transparenzpflichten einzuhalten. Diese differenzierte, risikobasierte Betrachtung ist sicherlich sinnvoll, da der KI-Entwicklung und -Nutzung nicht generell ein Riegel vorgeschoben wird.

Nun stellt sich die Frage, wie man entscheidet, ob eine KI-Anwendung dem Hochrisikobereich zugeordnet wird. Ursprünglich sah der Gesetzentwurf der Europäischen Kommission eine sehr weit gefasste Definition von KI und ihrer Einstufung als Hochrisiko-KI-Systeme vor. Aktuell steht jedoch im Raum, anstatt des objektivierenden Ansatzes, der KI-Systeme aufgrund verschiedener Merkmale automatisiert unter „Hochrisiko“ einordnet, eine subjektiv geprägte Einzelfallbetrachtung der Risiken zu ergänzen. Diese würde durch KI-qualifizierte Fachleute erfolgen. Das ist durchaus sinnvoll: In der Praxis kommt es auf den Einzelanwendungsfall an.

Weniger Gefahren oder nur weniger Innovationen?

In diesem Zusammenhang bleibt besonders spannend und insbesondere auch praxisrelevant, wie die Regulierung sogenannter General Purpose Artificial Intelligence (GPAI) und Generativer KI ausgestaltet wird. Das sind Systeme, die in einem breiten Spektrum möglicher Anwendungen eingesetzt werden können – oft ohne wesentliche Änderungen. Daher kann es bei ihrer Einbindung in bestimmten Anwendungsfällen zu Risiken kommen, die Entwicklerinnen und Entwickler der Systeme so noch gar nicht berücksichtigen konnten. Während der ursprüngliche Regelungsentwurf vom April 2021 diese Systeme nicht ausdrücklich adressierte, sehen die Trilog-Positionen von Europarat und -Parlament konkrete Regelungen dieser Formen der Technologie vor. Hier lässt sich eine gewisse Abkehr vom bisherigen, eher anwendungsfallbezogenen Verständnis von Risikobasiertheit erkennen, wobei allerdings Überregulierung verhindert werden muss.

Unabhängig vom AI Act gilt: KI operiert bereits heute nicht in einem rechtsfreien Raum. Hierzulande existiert schon eine Vielzahl von Vorschriften – Datenschutz, Urheberrecht und zahlreiche sektorale Gesetze. Diese Vorgaben gilt es sorgsam miteinander zu verzahnen. Gerade in Hinblick auf GPAI-Systeme, Foundation Models und Generative KI scheint das besonders herausfordernd zu sein.

Es ist eine schwierige Aufgabe, klare Definitionen zu finden und die EU-Gesetzgebung muss in diesem Fall den Spagat zwischen Regelungsbedürfnis und Innovationskraft schaffen. Der große Erfolg generativer Large Language Models wie ChatGPT hat schließlich gezeigt, wie immens die Chancen und Potenziale derartiger Technologien sind. Deshalb sollte der Gesetzgeber mit Augenmaß gestalten, wie bzw. welche KI-Anwendungen dem Hochrisikobereich zuzuordnen sind und keine generellen KI-Technologieverbote aussprechen. Denn wichtig ist: Wir dürfen Gefahren und Risiken von Technologien nicht zu hoch bewerten – manchmal neigen wir in Europa dazu. Der heute bereits absehbare Nutzen von angemessen regulierter KI für die Menschen, die Gesellschaft, die öffentliche Verwaltung und die Wirtschaft übersteigt selbst bei risikoaverser Betrachtung bei Weitem die Risiken.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Artikelfiles und Artikellinks

Link: msg im Web

(ID:49700041)