Das appliedAI Institute for Europe zeigt anhand von vier Handlungsfeldern, wie die Politik den Gestaltungsspielraum bei der nationalen Umsetzung des EU AI Acts nutzen kann, um die notwendige Balance zwischen dem Schutz der Grundrechte und der Förderung von Innovationen zu finden.
Im August 2024 trat der EU AI Act in Kraft. Nun liegt es in der Verantwortung der Mitgliedsstaaten, die KI-Verordnung national umzusetzen.
Der EU AI Act ist der weltweit umfassendste Rahmen zur Regulierung von KI. Mit dem Inkrafttreten der Verordnung im August 2024 liegt es nun in der Verantwortung der Mitgliedstaaten, die KI-Verordnung (KIVO) national umzusetzen. Die Studie des appliedAI Institute for Europe dient als Wissensgrundlage, die insbesondere die Politik, aber auch Verwaltung, Wirtschaft und Zivilgesellschaft für die möglichen Handlungsspielräume sensibilisiert, welche die nationale Umsetzung der Verordnung bietet. Sie basiert auf Recherchearbeiten und Hintergrundgesprächen mit führenden Fachpersonen und Entscheidungsträgern aus Politik, Wissenschaft, Wirtschaft und Zivilgesellschaft und verdeutlicht, dass die deutsche Bundesregierung ihre Chance nutzen sollte, um das Land auf den Weg zu einem Innovationsführer im Bereich vertrauenswürdiger KI zu bringen. Die Studie wurde von Lajla Fetic, Senior Trustworthy AI Expert des appliedAI Instituts gemeinsam mit Armin Oueslati, Visiting Analyst bei The Future Society, erarbeitet.
EU AI Act: eine Chance für Deutschland
Dr. Frauke Goll
(Bild: appliedAI)
Dr. Frauke Goll, Managing Director des appliedAI Institute for Europe, sieht im EU AI Act eine klare Aufgabe für das deutsche KI-Ökosystem: „Der EU AI Act schafft die Grundlage für vertrauenswürdige KI in Europa, doch um die Innovationskraft wirklich zu stärken, muss die nationale Umsetzung aktiv angegangen werden. Nur durch konsequentes Handeln können wir sicherstellen, dass technologische Entwicklungen in Deutschland nicht gebremst, sondern gefördert werden. Als Open Access Accelerator für Trustworthy AI ist es unser Ziel, dabei mit Expert:innenwissen zu unterstützen.“
Um diese Chance, die sich durch den Handlungsspielraum der nationalen Umsetzung ergibt, zu nutzen, müssen grundlegende Fragen geklärt und Bedenken adressiert werden: Wie kann sichergestellt werden, dass sich Deutschland nicht im Föderalismus verzettelt und Doppelstrukturen aufbaut? Wie können wir eine geeignete und ausreichende Kapazität für Konformitätsbewertung von KI-Anwendungen sicherstellen? Und wie können wir KI-Innovationen und Grundrechtsschutz aktiv fördern? Die Studie des appliedAI Institute gibt der Politik dafür vier klare Handlungsempfehlungen an die Hand:
1. Aufbau und Gestaltung von Marktüberwachungsbehörden als zentrale KI-Aufsicht
Damit nur vertrauenswürdige KI-Systeme auf dem europäischen Binnenmarkt zum Einsatz kommen, die den einschlägigen Sicherheitsstandards sowie Grundrechten entsprechen, müssen nationale Aufsichtsstrukturen geschaffen werden. Die in der KIVO vorgesehene Marktüberwachungsbehörde (MÜB) ist zentral für die Einhaltung der regulatorischen Anforderungen und den Schutz der Verbraucherrechte. Deutschland hat die Möglichkeit, eine solche Institution zu etablieren, die nicht nur die Anforderungen der Verordnung erfüllt, sondern auch die nationalen Besonderheiten berücksichtigt. Dabei ist es entscheidend, eine Marktüberwachungsbehörde auf Bundesebene zu schaffen, die ausreichend fachliche Kompetenz sowie personelle und finanzielle Ressourcen erhält. Wer die KI-Aufsicht in Deutschland übernimmt, ist nicht die einzige entscheidende Frage. Ebenso wichtig ist, wie deren Aufgaben gestaltet werden. Die Zusammenarbeit mit bestehenden sektoralen und föderalen Aufsichtsstrukturen sowie anderen relevanten Institutionen, wie den Datenschutzbehörden, muss so organisiert werden, dass Doppelstrukturen vermieden und eine kohärente Aufsicht sichergestellt wird. Dazu bedarf es eines partizipativen Prozesses, der die Perspektiven der Länder und bestehenden Institutionen ebenso berücksichtigt wie die der Wirtschaft und Zivilgesellschaft. Langfristig wäre es denkbar, diese Behörde zu einer umfassenden Digitalbehörde auszubauen, die auch weitere Digitalrechtsakte überwacht.
Empfehlung für die nationale Umsetzung:
Marktüberwachung zentralisieren: MÜB auf Bundesebene als Hauptkontaktpunkt zur Europäischen Kommission und zur Koordination mit bestehenden sektoralen Aufsichtsbehörden.
Langfristige Ausrichtung initiieren: Ausbau der MÜB zu einer umfassenden Digitalbehörde für eine kohärente Governance-Struktur für die digitale Wirtschaft in Deutschland.
Personelle und finanzielle Ausstattung aufstocken: Sicherstellung qualifizierten Personals und finanzieller Mittel sowie partizipativer Ansatz zur Gestaltung MÜB, der die Bedürfnisse der Wirtschaft, Forschung und Zivilgesellschaft berücksichtigt.
2. Stärkung der Bedeutung notifizierter Stellen für die Konformitätsbewertung von Hochrisiko-KI-Systemen
Konformitätsbewertungen sind ein bewährtes Mittel zur Gewährleistung der Produktsicherheit in unterschiedlichen Sektoren der EU. Die KIVO sieht deshalb vor, dass insbesondere Hochrisiko-KI-Anwendungen einer solchen Konformitätsbewertung unterzogen werden müssen, um die Erfüllung der gesetzlichen Anforderungen nachzuweisen. Dabei setzt der europäische Gesetzgeber vor allem auf interne Konformitätsbewertungen und verpflichtet nur in Ausnahmefällen zu einer Prüfung durch unabhängige Prüfstellen – den notifizierten Stellen.
Um die Sicherheit und Qualität von KI-Systemen zu gewährleisten, sollte in Deutschland ein leistungsfähiges Ökosystem für die Notifizierung und Akkreditierung der zuständigen Stellen aufgebaut und die effiziente und effektive Durchführung von (freiwilligen) Konformitätsbewertungen gefördert werden.
Empfehlung für die nationale Umsetzung:
Nationale Strukturen und Testkapazitäten stärken und ausbauen: Frühzeitige Einrichtung und ausreichende Ausstattung von notifizierenden und akkreditierenden Behörden zur Vermeidung von Engpässen und Verzögerungen bei der Markteinführung sicherer KI-Systeme.
Konformitätsbewertungen überwachen und optimieren: Fortlaufende Beobachtung interner Konformitätsbewertungen bei eigenständigen KI-Anwendungen und Ausweitung verpflichtender Prüfungen bei systematischen Mängeln sowie Förderung innovativer Ansätze und verbesserte risikominimierende Maßnahmen zur Optimierung (interner) Konformitätsbewertungen.
(Freiwillige und externe) Konformitätsbewertungen unterstützen: Ermutigung von KMU und Start-ups sowie des öffentlichen Sektors durch finanzielle Anreize freiwillige externe Konformitätsbewertungen durchzuführen.
Code of Conduct für KIVO-Beratungen entwickeln: Entwicklung eines branchenweiten Code-of-Conducts für KIVO-Beratungsleistungen zur Verbesserung der Beratungsqualität und zur Stärkung des Vertrauens in die Einhaltung der Regeln.
Armin Oueslati.
(Bild: Pauline Dalla-Marta)
„Es gibt einige KI-Anwendungen, die Risikopotenzial bergen. In diesen Fällen können unabhängige Prüfungen nicht nur die Sicherheit gewährleisten, sondern auch einen Wettbewerbsvorteil für KI „made in Germany“ schaffen”, erläutert Armin Oueslati, Visiting Analyst bei The Future Society und Mitverantwortlicher der Studie. „Neben den richtigen Marktanreizen für Anbieter ist hierfür vor allem die entsprechende Fachkompetenz aufseiten der Prüfstellen entscheidend.”
3. Konzeption und Umsetzung von Reallaboren für regulatorisches Lernen und zur Förderung von KI-Innovationen
Reallabore bieten einen kontrollierten Rahmen, um innovative KI-Systeme unter Realbedingungen zu testen und weiterzuentwickeln. Durch die temporäre Ausnahme von regulatorischen Auflagen können Reallabore Innovationen gezielt fördern und regulatorisches Lernen ermöglichen. Dies schafft nicht nur Raum für technologische Fortschritte, sondern auch für die Anpassung regulatorischer Anforderungen an neue technologische Realitäten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Empfehlung für die nationale Umsetzung:
Effiziente Gestaltung von Regeln: Aktive Mitwirkung Deutschlands an der Ausgestaltung des europäischen Durchführungsrechtsakts für Reallabore und Sicherstellung klarer Kriterien und praxisorientierter Prozesse sowie Anpassung geltender nationaler Gesetze, wie etwa die Überprüfung bestehender Experimentierklauseln.
Fachkompetenz sichern: Gewinnung und Bindung führender Fachpersonen an der Schnittstelle von Technologie und Regulierung.
Synergien mit bestehenden Strukturen nutzen: Vernetzung der Reallabore mit bestehenden Innovationsstrukturen, wie Test- und Versuchseinrichtungen (TEFs).
4. Harmonisierung, Standardisierung und partizipative Entwicklung von Grundrechte-Folgenabschätzungen
Die Grundrechte-Folgenabschätzung (GFA) ist ein zentrales Instrument, um die negativen Auswirkungen von KI-Systemen auf die Grundrechte zu bewerten und zu minimieren. Sie ergänzt die technischen Prüfungen durch eine Fokussierung auf den Schutz der Grundrechte und ist insbesondere für Anwendungen im öffentlichen Sektor und im Finanz- und Versicherungswesen von Bedeutung. Die erfolgreiche Umsetzung der GFA in Deutschland und Europa erfordert eine Harmonisierung und Standardisierung auf allen Ebenen sowie die aktive Einbindung verschiedener Stakeholder bei der Entwicklung von Mustern und Durchführung der Abschätzung.
Empfehlung für die nationale Umsetzung:
Muster und Anleitungen partizipativ entwickeln: Einbeziehung von Verwaltung, Fachpersonen und zivilgesellschaftlichen Akteuren zur Sicherstellung einer praxisnahen Anwendung der nationalen Muster für die GFA.
Externe Unterstützung und Beratung anbieten: Etablierung eines externen Fachnetzwerks zur Unterstützung öffentlicher Einrichtungen bei der Durchführung der GFA.
Informationsfluss standardisieren: Klare Anleitungen und standardisierte Prozesse zur Erleichterung der Integration der GFA in bereits bestehende regulatorische Anforderungen.
Die Politik kann die Weichen für die Zukunft stellen
Die Empfehlungen des appliedAI Institute tragen dazu bei, die Voraussetzungen dafür zu schaffen, dass Deutschland seine Position im KI-Ökosystem ausbaut und zugleich die ethischen und gesellschaftlichen Standards wahrt, die für eine vertrauenswürdige KI unabdingbar sind. Politische Entscheidungsträger sind jetzt gefragt, durch eine entschlossene Ausgestaltung der Governance die technologische Entwicklung in Deutschland und Europa zu stärken, um damit den Weg für eine zukunftsfähige, digitale Gesellschaft zu ebnen.
Lajla Fetic
(Bild: appliedAI)
Lajla Fetic, Senior Trustworthy AI Expert und Hauptverantwortliche der Studie, wünscht sich Mut von der Politik: „Jetzt ist der Moment, um die Verordnung zur künstlichen Intelligenz national umzusetzen und dabei beherzt die Weichen für vertrauenswürdige Innovation zu stellen. Dabei hat die deutsche Bundesregierung ausreichend Gestaltungsspielraum, den sie entschlossen nutzen sollte, um Grundrechtsschutz und kreativen Pioniergeist gleichermaßen bei der Entwicklung und dem Einsatz von KI zu fördern.
Über die Studie
Die Studie „KI-Regulierung made in Germany“ stützt sich auf eine qualitative Methodik, die insbesondere auf Recherchearbeiten und leitfadengestützter Interviews mit Fachpersonen basiert. Die Interviews wurden über einen Zeitraum von sechs Monaten mit führenden Fachleuten aus Politik, Wissenschaft, Wirtschaft und Zivilgesellschaft sowie weiteren relevanten Bereichen geführt, um ein breites Spektrum an Perspektiven zu erfassen. Eine zentrale Erkenntnis aus den Gesprächen war, dass das Wissen über die Feinheiten und Freiheiten der nationalen Umsetzung der europäischen KI-Regulierung ungleich verteilt ist und oftmals in fachspezifischen Silos verharrt. Um diesem Umstand entgegenzuwirken und einen breiteren Austausch zu fördern, bietet die Studie des appliedAI Institute grundlegende Einführungen sowie Beispiele aus anderen Mitgliedstaaten und bereits regulierten Sektoren.