Vertrauenswürdige Künstlicher Intelligenz (KI) kann viele Vorteile mit sich bringen, so die EU-Kommission. Dafür muss aber ein KI-Rechtsrahmen diese Vertrauensbildung ermöglichen. Wichtig sind dabei insbesondere neue Vorschriften für Anbieter von KI-Systemen mit hohem Risiko. Wo stehen die Entwicklungen hin zu einem EU AI Act derzeit? Was sagen Verbände zum aktuellen Strand? Wir geben einen Überblick.
Bemühungen um einen EU AI Act: Diskussionen und Verordnungen zur Regulierung von Künstlicher Intelligenz werden intensiv vorangetrieben.
Wir erinnern uns: Im April 2021 hatte die EU-Kommission einen Verordnungsentwurf zur Förderung der Entwicklung und Einführung sicherer und rechtskonformer KI im gesamten Binnenmarkt vorgelegt.
Im Dezember 2022 folgte dann der Rat der EU mit seinem gemeinsamen Standpunkt zum Gesetz über Künstliche Intelligenz. Das Gesetz soll gewährleisten, dass die auf dem EU-Markt in Verkehr gebrachten und in der Union verwendeten Systeme Künstlicher Intelligenz sicher sind und die bestehenden Grundrechte und die Werte der Union wahren, so das Ziel.
Ivan Bartoš, stellvertretender tschechischer Ministerpräsident für Digitalisierung und Minister für Regionalentwicklung, erklärte dazu: „Heute ist es uns gelungen, ein empfindliches Gleichgewicht zu erreichen, das Innovationen und die Einführung von Technologien der Künstlichen Intelligenz in ganz Europa fördern wird. Dabei werden wir alle Vorteile genießen, und die Grundrechte unserer Bürgerinnen und Bürger werden uneingeschränkt geachtet.“
Änderungen durch den Rat der EU
Der Rat der EU hatte einige Änderungen am ersten Entwurf vorgenommen. Einige Beispiele: Um sicherzustellen, dass die Definition eines KI-Systems ausreichend klare Kriterien für die Abgrenzung der KI von einfacheren Software-Systemen bietet, wurde die Begriffsbestimmung im Ratstext auf Systeme eingegrenzt, die anhand von Konzepten des maschinellen Lernens sowie logik- und wissensgestützten Konzepten entwickelt wurden.
Im Hinblick auf die Klassifizierung von KI-Systemen als Hochrisiko-Systeme enthält der Text nun eine horizontale Ebene über der Hochrisiko-Klassifizierung, um sicherzustellen, dass KI-Systeme, die wahrscheinlich keine schwerwiegenden Grundrechtsverletzungen oder andere bedeutende Risiken verursachen, nicht erfasst werden.
Neue Bestimmungen wurden hinzugefügt, um den Situationen Rechnung zu tragen, in denen KI-Systeme für zahlreiche verschiedene Zwecke verwendet werden können (KI mit allgemeinem Verwendungszweck) und in denen KI-Technologie mit allgemeinem Verwendungszweck in ein anderes Hochrisiko-System integriert wird. Im Text wurde festgelegt, dass in solchen Fällen bestimmte Anforderungen für Hochrisiko-KI-Systeme auch für KI-Systeme mit allgemeinem Verwendungszweck gelten würden.
Die Bestimmungen über die Marktüberwachung wurden ebenfalls präzisiert und vereinfacht, damit sie wirksamer und leichter umgesetzt werden können. In dem Text wurden außerdem die Bestimmungen über den KI-Ausschuss geändert, um eine größere Autonomie des Ausschusses zu gewährleisten und seine Rolle in der Governance-Architektur des KI-Gesetzes zu stärken.
Um zu einer Einigung über die vorgeschlagene Verordnung zu gelangen, kann der Rat Verhandlungen mit dem Europäischen Parlament („Trilog“) aufnehmen, sobald das Parlament seinen eigenen Standpunkt festlegt.
Hohe Erwartungen an den Trilog
Wirtschaftsverbände hatten den Vorschlag der EU-Kommission teils kritisiert, und auch die Änderungen durch den Rat der EU erfüllten nicht alle Wünsche und Hoffnungen an eine EU-Regulierung der KI.
„Das Verständnis von KI klarer zu definieren, war ein wichtiger Schritt“, so der stellvertretende HDE-Hauptgeschäftsführer Stephan Tromp (Handelsverband Deutschland). „Autonomie und maschinelles Lernverhalten als zentrale Elemente der Begriffsdefinition anzuführen, ermöglicht eine deutlichere Abgrenzung von einfacher Software.“ Diese Änderung begrüße der HDE sowie auch die neu geschaffene Möglichkeit, dass sich Interessenträger im KI-Ausschuss einbringen können.
Kritisch zu bewerten sei in der Ausrichtung des Rates allerdings die Kategorisierung von Hochrisiko-KI-Systemen. „Hier besteht die Gefahr einer Überregulierung. Zwar wurde im Bereich der Hochrisiko-KI-Systeme an einer differenzierteren Klassifizierung angesetzt. Doch die Vorgaben bleiben zu weit gefasst. Eine klare Systematik fehlt“, so Tromp weiter. Dass zudem KI-Systeme mit allgemeinem Verwendungszweck in den Text aufgenommen wurden, die so nicht im Vorschlag der EU-Kommission vorgesehen waren, steht nach Auffassung des HDE im Widerspruch zum ursprünglich verfolgten risikobasierten Ansatz und wird vom Verband abgelehnt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Aus Sicht des HDE ist im Europäischen Parlament die Festlegung einer klaren Definition für KI und Hochrisiko-KI-Systeme eine der wichtigsten Aufgaben. Die Begriffe dürften nicht verwässert werden. „Das Hauptaugenmerk des Europäischen Parlaments sollte darauf liegen, den risikobasierten Ansatz der EU-Kommission weiterzutragen. Über eine verhältnismäßige Regulierung kann das Parlament dazu beitragen, die Innovationskraft im Bereich KI in der EU zu stärken“, so Tromp.
Verbände sehen weiterhin Änderungsbedarf
Das Europäische Parlament will im Juni auf eine Position einigen. Dann beginnen die Trilogverhandlungen zwischen Rat, Parlament und Kommission für den AI Act. Die Verhandlungen auf dem Weg zum EU AI Act sind also bereits weit fortgeschritten. Doch es gibt weiterhin Kritikpunkte seitens Verbände und Verbraucherschützer.
In den Verhandlungen zum AI Act in Brüssel zeichnet sich eine Einigung ab, die auch generative KI-Systeme wie ChatGPT berücksichtigt, so zum Beispiel der Verbraucherzentrale Bundesverband (vzbv). Der vzbv fordert: Der AI Act muss Verbraucherinnen und Verbraucher mit starken Rechten gegenüber Betreibern ausstatten. „Wir brauchen Transparenz sowie ein Recht auf Korrektur und Löschung, damit sich Betroffene etwa gegen KI-generierte Falschmeldungen oder Manipulation zur Wehr setzen können“, so Ramona Pop, Vorständin des vzbv.
Das sehen Datenschützer ohne Zweifel auch so, denn Transparenz, Recht auf Korrektur und Löschung sind grundlegende Rechte von Betroffenen, wenn eine KI-Lösung personenbezogene Daten verarbeitet. Man darf also auf die weitere Entwicklung hin zum EU AI Act und die Trilogverhandlungen mehr als gespannt sein.