KI-Normierung Partizipation dringend gewünscht

Von lic.rer.publ. Ariane Rüdiger Lesedauer: 5 min |

Anbieter zum Thema

Die Normierung der Künstlichen Intelligenz (KI) schreitet auf europäischer Ebene fort. Nun soll auch die EU-rechtskonforme Umsetzung der Vorgaben in Gang kommen.

Während man in Brüssel noch über den AI Act debattiert, soll in Deutschland bereits die konkrete Normierung beginnen. Kürzlich wurde deshalb Ausgabe 2 der KI-Normierungsroadmap von DIN und DKE der Öffentlichkeit vorgestellt.
Während man in Brüssel noch über den AI Act debattiert, soll in Deutschland bereits die konkrete Normierung beginnen. Kürzlich wurde deshalb Ausgabe 2 der KI-Normierungsroadmap von DIN und DKE der Öffentlichkeit vorgestellt.
(Bild: DIN/DKE)

Der geplante europäische AI Act soll nach den auf EU-Ebene üblichen Verzögerungen im Sommer 2023 verabschiedet werden. Aktuelle Änderungen des Rechtsrahmens betreffen unter anderem die Definition von KI-Systemen. Der Begriff soll jetzt auf Systeme beschränkt werden, die durch maschinelle Lerntechniken und wissensbasierte Ansätze entwickelt wurden und autonom arbeiten. Rein wissenschaftliche Systeme regelt der AI Act also nicht mehr.

Systeme sollen nur noch dann als Hochrisiko-Systeme (Anhang III des AI Act) gelten, wenn ihre Vorgaben in Hinblick auf die zu treffenden Maßnahmen nicht rein nebensächlich sind. Weniger Systeme als bisher aus den Bereichen Versicherung, biometrische Kategorisierung, Umwelt- und Fälschungsschutz gelten damit als KI-Systeme.

Bildergalerie

Kleinere Unternehmen sollen weniger strengen Dokumentationspflichten bezüglich von ihnen entwickelten KI-Systemen unterworfen werden und das Vier-Augen-Prinzip wird beim Grenzschutz aufgehoben. Bei Banken kann eine KI-Qualitätssicherungslösung in ein bereits bestehendes System eingegliedert werden.

Grundlegende Prinzipien wurden aber beibehalten, insbesondere das Prinzip, dass auch beim Einsatz von KI-Systemen in Europa der Mensch das letzte Wort haben soll (Human Oversight). Besonders wichtig ist dies in sensiblen Anwendungsfeldern wie der Medizin.

Deutsche Normung und AI Act

Während man in Brüssel noch debattiert, soll in Deutschland bereits die konkrete Normierung beginnen. Kürzlich wurde deshalb Ausgabe 2 der KI-Normierungsroadmap von DIN und DKE der Öffentlichkeit vorgestellt. Dies verbanden die Initiatoren der Präsentation mit einem dringenden Aufruf an alle KI-Spezialisten, aber auch Anwender und Interessierte aus der Bürgerschaft, sich aktiv an der Ausgestaltung der EU-konformen deutschen KI-Normen zu beteiligen.

Zur Erklärung: Die deutsche Normung soll auf nationaler Ebene den Rahmen, den der AI Act vorgibt, ausfüllen. Der AI Act verlangt von KI-Systemen neben Human Oversight beispielsweise Robustheit, Sicherheit und Transparenz, bezüglich des Verhaltens der Betreiber Risiko- oder Qualitätsmanagement. Die deutschen Normierungsinstitutionen melden ihre Arbeitsergebnisse an die europäischen Gremien, die sie prüfen und günstigenfalls die Fundstelle im Amtsblatt der EU veröffentlichen. Damit wird der Vorschlag zur harmonisierten europäischen Norm.

Normierungsroadmap 2.0: Mehr als 400 Seiten

Die nun präsentierte Normierungsroadmap ist ein gewaltiges Werk. Sie wurde auf dem Digitalgipfel im Dezember 2022 an Robert Habeck, Bundesminister für Wirtschaft und Klimaschutz (Grüne), übergeben und umfasst mehr als 400 Seiten. 570 Fachleute in neun Arbeitsgruppen trugen zur Entstehung des Werks bei. 318 Autorinnen und Autoren lieferten Textbeiträge. Das Ergebnis: 116 Handlungsempfehlungen und sechs übergreifende Empfehlungen.

Die neun Arbeitsgruppen befassten sich mit den Themen Grundlagen, Sicherheit, Prüfung und Zertifizierung sowie Soziotechnische Systeme. Letztere Arbeitsgruppe ist im Vergleich zur Erstellung der ersten Version der Normierungsroadmap hinzugekommen. Sie soll der Tatsache Rechnung tragen, dass viele KI-Lösungen zukünftig Hand in Hand mit dem Menschen arbeiten werden.

Dazu kamen fünf vertikale, also anwendungsbezogene Arbeitsgruppen. Sie behandelten die Themen industrielle Automation, Mobilität, Medizin, Finanzdienstleistungen sowie Energie und Umwelt.

Weiterentwicklung bestehender Normen

Bei der Normierung planen die deutschen Normierungsorganisationen grundsätzlich, bestehende Normen durch KI-bezogene Regelungen anzureichern, statt alles neu zu entwickeln. Dabei laufen die Normungsaktivitäten im gemeinsamen Normungsausschuss von DIN und DKE für Künstliche Intelligenz (NA043-01-42) zusammen. Dieser ist das nationale Spiegelbild des internationalen Normierungsausschusses ISO/IEC JTC1/SC42.

Es folgen die wichtigsten Ergebnisse einiger der Arbeitsgruppen. Sie wurden die während der Auftaktveranstaltung im Videokonferenz-Format präsentiert.

Grundlagen: Glossar und Klassifizierung

Die Grundlagen-Gruppe unter Leitung von Dr. Peter Deussen, Microsoft Deutschland, befasste sich mit Querschnittsthemen, insbesondere mit einer geeigneten KI-Klassifikation und einem umfangreichen Glossar. Die Klassifizierung wurde als Vorschlag in die europäische Diskussion eingebracht. Sie soll zum übergreifenden Verständnis innerhalb des weiteren Normungsprozesses beitragen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Bei der Betrachtung von KI-Systemen wird zwischen Methoden und Fähigkeiten der KI unterschieden. Zu Methoden gehören etwa ML oder Optimierung, zu den Fähigkeiten beispielsweise Umweltwahrnehmung und -verständnis, Kommunikation und eigenständiges Handeln. Hinsichtlich der Normierung ethischer Grundsätze (Fairness, Diskriminierungsfreiheit …) ist Deussen skeptisch. Diese wären gesellschaftliche Übereinkünfte, die nicht in technische Standards gehörten. Allerdings könne man sie operationalisieren, also beispielsweise technische Maßnahmen gegen Bias vorschreiben.

Prüfung und Zertifizierung

Die AG Prüfung und Zertifizierung unter Leitung von Dr. Maximilian Poretschkin, Fraunhofer Institut für Intelligent Analysis and Information Systems (IAIS), befasste sich mit vertikalen und horizontalen Prüf- und Zertifizierungsverfahren. Oft sind Anforderungen aufs Gesamtsystem bezogen und müssen erst auf die KI-Komponenten heruntergebrochen werden. Dabei handelt es sich häufig um Qualitätsaussagen über Modelle, die in mehreren Branchen angewendet werden.

Zudem generiert KI hybride, komplexe Wertschöpfungsketten, bestehend aus Basisdienstleistungen auf Basis externer Services und einem Anwendungskontext, weshalb hier häufig eine horizontale Entwicklung von Prüfverfahren erfolgt. Prüfungen und Zertifizierungen müssten, so Poretschkin, an bestehende Verfahren anbinden und sich mit der KI weiterentwickeln.

Safety und Security

Die Arbeitsgruppe Sicherheit behandelte Safety und Security. Sie wurde von Dr. Rasmus Adler, Fraunhofer Institut für Experimentelles Software Engineering (IESE), geleitet. Es gehe darum, ob die fürs Gesamtsystem richtige Anwendung gewählt und dabei der Stand von Wissenschaft und Technik berücksichtigt werde. Außerdem müsse geprüft werden, ob der gegenwärtige Entwicklungsstand überhaupt für die Anforderungen des Gesamtsystems ausreicht. Adler empfiehlt daher, mit Fällen zu beginnen, die eine geringere Sicherheitslast haben und zunächst diese umzusetzen.

Hinsichtlich der Sicherheit von Daten und Algorithmen geht es darum, die Schutzziele von IT-Sicherheit – Verfügbarkeit, Integrität, Vertraulichkeit und Authentizität – auf KI-Komponenten anzuwenden und dafür Maßnahmen zu entwickeln. Dafür, so Annegrit Seyerlein-Klug, neurocat GmbH, seien überschaubare KI-Komponenten nötig, die sich auditieren und zertifizieren lassen, bevor sie in unterschiedliche Lösungen integriert werden. Vorbild seien hier andere Bereiche der Software. Dies sei auch ökonomisch sinnvoll. Außerdem sollten Maßnahmen horizontal definiert und dann für vertikale Branchen genauer definiert werden.

Soziotechnische Systeme

Die Arbeitsgruppe Soziotechnische Systeme leitete Dr. Patricia Stock, REFA-Institut. Die Gruppe entwickelte Vorgaben dafür, wie die Bedürfnisse des Menschen so in die Entwicklung von KI-Systemen einbezogen werden, dass der Mensch anschließend mithilfe der KI seine Aufgaben möglichst effektiv erfüllen kann.

KI-Lösungen, so Stock, könnten nur erfolgreich sein, wenn der Mensch als Bestandteil des soziotechnischen Systems in jeder Phase des KI-Lebenszyklus berücksichtigt werde. Die Herausforderung dabei sei die Dynamik der Systeme, die sich während der Betriebsdauer verändern, teils sogar selbstständig. Daher sei der Einbezug des Menschen während Initialisierung, Planung und Betrieb unabdingbar.

Bei der Initialisierung müsse entschieden werden, wofür die KI nötig ist, ob das Risiko überschaubar bleibt und ob man sie grundsätzlich braucht, und zwar mit Partizipation der Betroffenen. Bei der Planung wird die konkrete Funktion des Systems beschrieben. Hier geht es um die Aufgabenteilung zwischen Mensch und Maschine und ihr Zusammenspiel, Schulung und Weiterbildung. Im Betrieb geht es insbesondere um Interventionsmöglichkeiten und kontinuierliche Verbesserung.

Die gesamte KI-Normungsroadmap kann unter https://www.din.de/go/normungsroadmapki kostenlos heruntergeladen werden. Für eine sehr erwünschte Mitwirkung an der Normung können sich Experten, aber auch Interessierte aus der Zivilgesellschaft, unter https://din.one/display/NRM anmelden.

(ID:49055174)