Die Normierung der Künstlichen Intelligenz (KI) schreitet auf europäischer Ebene fort. Nun soll auch die EU-rechtskonforme Umsetzung der Vorgaben in Gang kommen.
Während man in Brüssel noch über den AI Act debattiert, soll in Deutschland bereits die konkrete Normierung beginnen. Kürzlich wurde deshalb Ausgabe 2 der KI-Normierungsroadmap von DIN und DKE der Öffentlichkeit vorgestellt.
(Bild: DIN/DKE)
Der geplante europäische AI Act soll nach den auf EU-Ebene üblichen Verzögerungen im Sommer 2023 verabschiedet werden. Aktuelle Änderungen des Rechtsrahmens betreffen unter anderem die Definition von KI-Systemen. Der Begriff soll jetzt auf Systeme beschränkt werden, die durch maschinelle Lerntechniken und wissensbasierte Ansätze entwickelt wurden und autonom arbeiten. Rein wissenschaftliche Systeme regelt der AI Act also nicht mehr.
Systeme sollen nur noch dann als Hochrisiko-Systeme (Anhang III des AI Act) gelten, wenn ihre Vorgaben in Hinblick auf die zu treffenden Maßnahmen nicht rein nebensächlich sind. Weniger Systeme als bisher aus den Bereichen Versicherung, biometrische Kategorisierung, Umwelt- und Fälschungsschutz gelten damit als KI-Systeme.
Bildergalerie
Kleinere Unternehmen sollen weniger strengen Dokumentationspflichten bezüglich von ihnen entwickelten KI-Systemen unterworfen werden und das Vier-Augen-Prinzip wird beim Grenzschutz aufgehoben. Bei Banken kann eine KI-Qualitätssicherungslösung in ein bereits bestehendes System eingegliedert werden.
Grundlegende Prinzipien wurden aber beibehalten, insbesondere das Prinzip, dass auch beim Einsatz von KI-Systemen in Europa der Mensch das letzte Wort haben soll (Human Oversight). Besonders wichtig ist dies in sensiblen Anwendungsfeldern wie der Medizin.
Deutsche Normung und AI Act
Während man in Brüssel noch debattiert, soll in Deutschland bereits die konkrete Normierung beginnen. Kürzlich wurde deshalb Ausgabe 2 der KI-Normierungsroadmap von DIN und DKE der Öffentlichkeit vorgestellt. Dies verbanden die Initiatoren der Präsentation mit einem dringenden Aufruf an alle KI-Spezialisten, aber auch Anwender und Interessierte aus der Bürgerschaft, sich aktiv an der Ausgestaltung der EU-konformen deutschen KI-Normen zu beteiligen.
Zur Erklärung: Die deutsche Normung soll auf nationaler Ebene den Rahmen, den der AI Act vorgibt, ausfüllen. Der AI Act verlangt von KI-Systemen neben Human Oversight beispielsweise Robustheit, Sicherheit und Transparenz, bezüglich des Verhaltens der Betreiber Risiko- oder Qualitätsmanagement. Die deutschen Normierungsinstitutionen melden ihre Arbeitsergebnisse an die europäischen Gremien, die sie prüfen und günstigenfalls die Fundstelle im Amtsblatt der EU veröffentlichen. Damit wird der Vorschlag zur harmonisierten europäischen Norm.
Normierungsroadmap 2.0: Mehr als 400 Seiten
Die nun präsentierte Normierungsroadmap ist ein gewaltiges Werk. Sie wurde auf dem Digitalgipfel im Dezember 2022 an Robert Habeck, Bundesminister für Wirtschaft und Klimaschutz (Grüne), übergeben und umfasst mehr als 400 Seiten. 570 Fachleute in neun Arbeitsgruppen trugen zur Entstehung des Werks bei. 318 Autorinnen und Autoren lieferten Textbeiträge. Das Ergebnis: 116 Handlungsempfehlungen und sechs übergreifende Empfehlungen.
Die neun Arbeitsgruppen befassten sich mit den Themen Grundlagen, Sicherheit, Prüfung und Zertifizierung sowie Soziotechnische Systeme. Letztere Arbeitsgruppe ist im Vergleich zur Erstellung der ersten Version der Normierungsroadmap hinzugekommen. Sie soll der Tatsache Rechnung tragen, dass viele KI-Lösungen zukünftig Hand in Hand mit dem Menschen arbeiten werden.
Dazu kamen fünf vertikale, also anwendungsbezogene Arbeitsgruppen. Sie behandelten die Themen industrielle Automation, Mobilität, Medizin, Finanzdienstleistungen sowie Energie und Umwelt.
Weiterentwicklung bestehender Normen
Bei der Normierung planen die deutschen Normierungsorganisationen grundsätzlich, bestehende Normen durch KI-bezogene Regelungen anzureichern, statt alles neu zu entwickeln. Dabei laufen die Normungsaktivitäten im gemeinsamen Normungsausschuss von DIN und DKE für Künstliche Intelligenz (NA043-01-42) zusammen. Dieser ist das nationale Spiegelbild des internationalen Normierungsausschusses ISO/IEC JTC1/SC42.
Es folgen die wichtigsten Ergebnisse einiger der Arbeitsgruppen. Sie wurden die während der Auftaktveranstaltung im Videokonferenz-Format präsentiert.
Grundlagen: Glossar und Klassifizierung
Die Grundlagen-Gruppe unter Leitung von Dr. Peter Deussen, Microsoft Deutschland, befasste sich mit Querschnittsthemen, insbesondere mit einer geeigneten KI-Klassifikation und einem umfangreichen Glossar. Die Klassifizierung wurde als Vorschlag in die europäische Diskussion eingebracht. Sie soll zum übergreifenden Verständnis innerhalb des weiteren Normungsprozesses beitragen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Bei der Betrachtung von KI-Systemen wird zwischen Methoden und Fähigkeiten der KI unterschieden. Zu Methoden gehören etwa ML oder Optimierung, zu den Fähigkeiten beispielsweise Umweltwahrnehmung und -verständnis, Kommunikation und eigenständiges Handeln. Hinsichtlich der Normierung ethischer Grundsätze (Fairness, Diskriminierungsfreiheit …) ist Deussen skeptisch. Diese wären gesellschaftliche Übereinkünfte, die nicht in technische Standards gehörten. Allerdings könne man sie operationalisieren, also beispielsweise technische Maßnahmen gegen Bias vorschreiben.
Prüfung und Zertifizierung
Die AG Prüfung und Zertifizierung unter Leitung von Dr. Maximilian Poretschkin, Fraunhofer Institut für Intelligent Analysis and Information Systems (IAIS), befasste sich mit vertikalen und horizontalen Prüf- und Zertifizierungsverfahren. Oft sind Anforderungen aufs Gesamtsystem bezogen und müssen erst auf die KI-Komponenten heruntergebrochen werden. Dabei handelt es sich häufig um Qualitätsaussagen über Modelle, die in mehreren Branchen angewendet werden.
Zudem generiert KI hybride, komplexe Wertschöpfungsketten, bestehend aus Basisdienstleistungen auf Basis externer Services und einem Anwendungskontext, weshalb hier häufig eine horizontale Entwicklung von Prüfverfahren erfolgt. Prüfungen und Zertifizierungen müssten, so Poretschkin, an bestehende Verfahren anbinden und sich mit der KI weiterentwickeln.
Safety und Security
Die Arbeitsgruppe Sicherheit behandelte Safety und Security. Sie wurde von Dr. Rasmus Adler, Fraunhofer Institut für Experimentelles Software Engineering (IESE), geleitet. Es gehe darum, ob die fürs Gesamtsystem richtige Anwendung gewählt und dabei der Stand von Wissenschaft und Technik berücksichtigt werde. Außerdem müsse geprüft werden, ob der gegenwärtige Entwicklungsstand überhaupt für die Anforderungen des Gesamtsystems ausreicht. Adler empfiehlt daher, mit Fällen zu beginnen, die eine geringere Sicherheitslast haben und zunächst diese umzusetzen.
Hinsichtlich der Sicherheit von Daten und Algorithmen geht es darum, die Schutzziele von IT-Sicherheit – Verfügbarkeit, Integrität, Vertraulichkeit und Authentizität – auf KI-Komponenten anzuwenden und dafür Maßnahmen zu entwickeln. Dafür, so Annegrit Seyerlein-Klug, neurocat GmbH, seien überschaubare KI-Komponenten nötig, die sich auditieren und zertifizieren lassen, bevor sie in unterschiedliche Lösungen integriert werden. Vorbild seien hier andere Bereiche der Software. Dies sei auch ökonomisch sinnvoll. Außerdem sollten Maßnahmen horizontal definiert und dann für vertikale Branchen genauer definiert werden.
Soziotechnische Systeme
Die Arbeitsgruppe Soziotechnische Systeme leitete Dr. Patricia Stock, REFA-Institut. Die Gruppe entwickelte Vorgaben dafür, wie die Bedürfnisse des Menschen so in die Entwicklung von KI-Systemen einbezogen werden, dass der Mensch anschließend mithilfe der KI seine Aufgaben möglichst effektiv erfüllen kann.
KI-Lösungen, so Stock, könnten nur erfolgreich sein, wenn der Mensch als Bestandteil des soziotechnischen Systems in jeder Phase des KI-Lebenszyklus berücksichtigt werde. Die Herausforderung dabei sei die Dynamik der Systeme, die sich während der Betriebsdauer verändern, teils sogar selbstständig. Daher sei der Einbezug des Menschen während Initialisierung, Planung und Betrieb unabdingbar.
Bei der Initialisierung müsse entschieden werden, wofür die KI nötig ist, ob das Risiko überschaubar bleibt und ob man sie grundsätzlich braucht, und zwar mit Partizipation der Betroffenen. Bei der Planung wird die konkrete Funktion des Systems beschrieben. Hier geht es um die Aufgabenteilung zwischen Mensch und Maschine und ihr Zusammenspiel, Schulung und Weiterbildung. Im Betrieb geht es insbesondere um Interventionsmöglichkeiten und kontinuierliche Verbesserung.
Die gesamte KI-Normungsroadmap kann unter https://www.din.de/go/normungsroadmapki kostenlos heruntergeladen werden. Für eine sehr erwünschte Mitwirkung an der Normung können sich Experten, aber auch Interessierte aus der Zivilgesellschaft, unter https://din.one/display/NRM anmelden.