Mit dem AI Act wird voraussichtlich noch in diesem Jahr ein weltweit erstes, bindendes Regularium zum Einsatz von KI verabschiedet werden. Ob dies für Europa und Deutschland eine Chance oder einen Stolperstein bedeutet, hängt insbesondere von der finalen Ausgestaltung des Entwurfs ab.
Der Autor: Dr. Frank Schlottmann setzt bereits seit 25 Jahren Künstliche Intelligenz in der Forschung und für Unternehmensanwendungen ein. Er war langjähriger Lehrbeauftragter für Künstliche Intelligenz am Karlsruher Institut für Technologie. Seit Januar 2021 ist er Vorstandsmitglied bei msg und verantwortet unter anderem das Bankengeschäft, den branchenübergreifenden Bereich Artificial Intelligence sowie Compliance und Legal.
(Bild: msg)
Künstliche Intelligenz verbanden lange viele mit Science-Fiction oder dystopischen Szenarien. Diese Zeiten sind jedoch vorbei: Laut einer im Juli 2023 veröffentlichten Bitkom-Studie ist KI mittlerweile einer großen Mehrheit der deutschen Bevölkerung bekannt (92 Prozent). Ein Jahr zuvor waren es noch 86 Prozent. Zudem traut sich mehr als die Hälfte (56 Prozent) sogar zu, den Begriff zu erklären. Diese Ergebnisse zeigen: KI ist in der Mitte der Gesellschaft angekommen. Dennoch bestehen noch Vorbehalte und Ängste. Man fühlt sich erinnert an die 1990er-Jahre, als sich E-Commerce langsam etablierte und eine große Verunsicherung gegenüber den neuen technischen Möglichkeiten und Geschäftsmodellen spürbar war.
Weltweit wird deshalb über KI-Regulierungsansätze diskutiert. In der EU etwa steht der Abschluss des AI Acts unmittelbar bevor. Dieses Vorhaben ist grundsätzlich positiv zu bewerten – schließlich trägt es dazu bei, die Sorgen vor für die Gesellschaft schädlichen Auswirkungen durch KI-Technologien zu lindern. Es ist gut, dass die EU in dieser Hinsicht eine Vorreiterrolle einnimmt. Gleichzeitig ist jedoch wichtig, dass wir die KI nicht überregulieren. Denn geschieht das, finden die Innovationen einfach woanders statt – eben gerade in Ländern wie China und den USA, die aufgrund milliardenschwerer Investitionen ohnehin schon die „KI-Nase“ vorne haben. Es darf am Ende nicht darauf hinauslaufen, dass wir unsere eigenen KI-Entwicklungen „made in Europe“ behindern. Europa muss seine Souveränität in Form unterschiedlicher KI-Systeme durch ein Angebot an europäischen Alternativen sichern.
Chancen und Risiken
Der risikobasierte Ansatz, den der AI Act verfolgt, geht grundsätzlich in die richtige Richtung. Im Gesetzesentwurf wird die Regulierung von KI nach Risikokategorien differenziert. Der Einsatz von KI wäre demnach verboten, sofern er mit inakzeptablen Risiken einhergeht. Als inakzeptabel gelten Programme, die mit Gefahren für Menschen bzw. einer Verletzung von Persönlichkeitsrechten verbunden sind. Etwa solche Anwendungen, die Menschen manipulieren oder im Rahmen eines Social Scoring zum Einsatz kommen. In die Kategorie Hochrisiko-KI-Systeme fallen wiederum diejenigen Anwendungen, die mit personenbezogenen Daten oder einer kritischen Infrastruktur arbeiten, etwa eine Personalmanagementsoftware oder KI in hochregulierten Bereichen wie etwa im Finanzwesen. In diesem Fall ist KI nicht kategorisch verboten, sondern steht unter dem Erlaubnisvorbehalt, dass im Einzelfall die gesetzlich definierten Anforderungen eingehalten werden. Andere KI-Systeme, die als weniger riskant betrachtet werden, unterliegen hingegen deutlich weniger Restriktionen – u.a. sind hier Transparenzpflichten einzuhalten. Diese differenzierte, risikobasierte Betrachtung ist sicherlich sinnvoll, da der KI-Entwicklung und -Nutzung nicht generell ein Riegel vorgeschoben wird.
Nun stellt sich die Frage, wie man entscheidet, ob eine KI-Anwendung dem Hochrisikobereich zugeordnet wird. Ursprünglich sah der Gesetzentwurf der Europäischen Kommission eine sehr weit gefasste Definition von KI und ihrer Einstufung als Hochrisiko-KI-Systeme vor. Aktuell steht jedoch im Raum, anstatt des objektivierenden Ansatzes, der KI-Systeme aufgrund verschiedener Merkmale automatisiert unter „Hochrisiko“ einordnet, eine subjektiv geprägte Einzelfallbetrachtung der Risiken zu ergänzen. Diese würde durch KI-qualifizierte Fachleute erfolgen. Das ist durchaus sinnvoll: In der Praxis kommt es auf den Einzelanwendungsfall an.
Weniger Gefahren oder nur weniger Innovationen?
In diesem Zusammenhang bleibt besonders spannend und insbesondere auch praxisrelevant, wie die Regulierung sogenannter General Purpose Artificial Intelligence (GPAI) und Generativer KI ausgestaltet wird. Das sind Systeme, die in einem breiten Spektrum möglicher Anwendungen eingesetzt werden können – oft ohne wesentliche Änderungen. Daher kann es bei ihrer Einbindung in bestimmten Anwendungsfällen zu Risiken kommen, die Entwicklerinnen und Entwickler der Systeme so noch gar nicht berücksichtigen konnten. Während der ursprüngliche Regelungsentwurf vom April 2021 diese Systeme nicht ausdrücklich adressierte, sehen die Trilog-Positionen von Europarat und -Parlament konkrete Regelungen dieser Formen der Technologie vor. Hier lässt sich eine gewisse Abkehr vom bisherigen, eher anwendungsfallbezogenen Verständnis von Risikobasiertheit erkennen, wobei allerdings Überregulierung verhindert werden muss.
Unabhängig vom AI Act gilt: KI operiert bereits heute nicht in einem rechtsfreien Raum. Hierzulande existiert schon eine Vielzahl von Vorschriften – Datenschutz, Urheberrecht und zahlreiche sektorale Gesetze. Diese Vorgaben gilt es sorgsam miteinander zu verzahnen. Gerade in Hinblick auf GPAI-Systeme, Foundation Models und Generative KI scheint das besonders herausfordernd zu sein.
Es ist eine schwierige Aufgabe, klare Definitionen zu finden und die EU-Gesetzgebung muss in diesem Fall den Spagat zwischen Regelungsbedürfnis und Innovationskraft schaffen. Der große Erfolg generativer Large Language Models wie ChatGPT hat schließlich gezeigt, wie immens die Chancen und Potenziale derartiger Technologien sind. Deshalb sollte der Gesetzgeber mit Augenmaß gestalten, wie bzw. welche KI-Anwendungen dem Hochrisikobereich zuzuordnen sind und keine generellen KI-Technologieverbote aussprechen. Denn wichtig ist: Wir dürfen Gefahren und Risiken von Technologien nicht zu hoch bewerten – manchmal neigen wir in Europa dazu. Der heute bereits absehbare Nutzen von angemessen regulierter KI für die Menschen, die Gesellschaft, die öffentliche Verwaltung und die Wirtschaft übersteigt selbst bei risikoaverser Betrachtung bei Weitem die Risiken.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.