Künstliche Intelligenz Es braucht Regeln für eine vertrauenswürdige KI
Anbieter zum Thema
ChatGPT zeigt uns deutlich, wozu Künstliche Intelligenz (KI) heute schon in der Lage ist. Der Einsatz von KI wird in den kommenden Jahren weiter zunehmen. Hier gilt es, Regeln aufzustellen, um die Entwicklung und den Einsatz von KI vertrauenswürdig zu gestalten.

ChatGPT stößt seit November letzten Jahres auf großes Interesse. Der Vorteil: Nutzer können sich mit dem Algorithmus über jedes beliebige Thema unterhalten. Allerdings reicht das Wissen nur bis 2021. Neuere Versionen der Künstlichen Intelligenz versprechen Abhilfe.
KI ist nicht nur im Alltag nützlich, um riesige Datenmengen in kurzer Zeit zu durchsuchen. In der Elektronikindustrie kann der Sprachbot beim Design von Leiterplatten helfen. Doch immer bleibt die Frage: Wie vertrauenswürdig ist eine KI? Regeln für die Entwicklung und den Einsatz von KI schützen vor möglichen Gefahren. Dazu braucht es einheitliche Regeln für faire Wettbewerbsbedingungen. Überregulierung bremst den Fortschritt.
Drei Regeln für eine vertrauenswürdige KI
Damit eine Künstliche Intelligenz vertrauenswürdig ist, muss sie drei Punkte erfüllen:
- Ethisch einwandfrei,
- technisch zuverlässig und
- wirtschaftlich fair.
Ethisch einwandfrei meint, ethische Prinzipien einzuhalten und demokratische Werte. Ebenso wie vor dem Gesetz sollte auch durch ein KI-System niemand ungleich oder unfair behandelt werden. Ein KI-System sollte technisch so ausgereift sein, dass es sicher und zuverlässig eingesetzt werden kann. Das KI-System muss bestimmungsgemäß und ohne unerwünschte Nebenwirkungen funktionieren. Für die Nutzer muss jederzeit klar sein, welche Daten zu welchem Zweck verarbeitet werden.
Eine vertrauenswürdige KI-Anwendung sollte Eigentumsrechte sowie Chancengleichheit und Fairness auf dem Markt respektieren. Um Monopolstellungen oder ungleiche Wettbewerbsbedingungen durch KI-Anwendungen zu vermeiden, sollten KI-Systeme möglichst viele offene Schnittstellen für verschiedene Anwendungsszenarien bieten.
Regeln für die KI und wer sie setzt
„KI ist häufig in visionäre Erzählungen eingebettet, in denen kein belastbares Wissen über Gefahren und Risiken besteht. Weiterhin verändern sich KI-Systeme durch Maschinelles Lernen. Eine Technikfolgenabschätzung für KI-Systeme muss daher auch mögliche Risiken nicht-intendierten Lernens betrachten und über einprogrammierte Leitplanken des Lernens nachdenken“, sagt Prof. Dr. Armin Grundwald. Er ist Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) am KIT, Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und Mitglied in der Plattform Lernende Systeme.
Damit es zu keinem Missbrauch einer KI kommen kann, sind Regeln notwendig. Gesetzt werden können die Regeln von Unternehmen, Verbänden oder politischen Institutionen. Sie gelten entweder für einzelne Betriebe, ganze Branchen oder die Allgemeinheit.
Entwickeln und verwenden Unternehmen oder Institutionen eine KI, dann sollten sie sich freiwillig verpflichten, bestimmte Standards zu entsprechen. Solche Regeln orientieren sich beispielsweise an technischer Robustheit, Reproduzierbarkeit und Sicherheit von KI-Systemen. Ein KI-System sollte möglichst erklärbar konzipiert und diskriminierungsfrei sein.
:quality(80):fill(efefef,0)/p7i.vogel.de/wcms/64/46/64464e6dbd7c0/bdi-ebook-it-security-und-iot-plattformen.png)
Marktstandard und Qualität der KI-Systeme erhöhen
Wenn Unternehmen und Institute Regeln definieren, heben sie damit den Marktstandard und verbessern die Qualität der KI-Systeme. Viele Unternehmen schließen sich zusammen und es kommt nicht zu einer Überregulierung. Beispiele für Regeln aus der Praxis hat das Fraunhofer Institut (IAIS) im „Leitfaden zur Gestaltung vertrauenswürdiger KI“ zusammengefasst.
„Es sind die Pflichten der Betriebe zu stärken. Es ist dringend erforderlich Nutzungsregeln im Sinne einer betrieblichen Folgenabschätzung für KI in der Arbeitswelt zu implementieren. Hierzu gehören Fragen wie zum Beispiel Auswirkungen auf Beschäftigung (Rationalisierungswirkung), Qualifizierungsbedarfe oder Belastungsveränderungen“, sagt Oliver Suchy, Mitglied im Bundesvorstand des Deutschen Gewerkschaftsbundes DGB und Mitglied in der Plattform Lernende Systeme.
AI ACT der Europäischen Kommission
Auf europäischer Ebene hat das EU-Parlament ein gemeinsames Regelwerk entwickelt, mit dem eine vertrauenswürdige KI möglich sein soll. Die Europäische Kommission hat 2021 den Artificial Intelligence (AI) Act vorgelegt und die Mitgliedsstaaten der EU sowie Wirtschafts- und zivilgesellschaftliche Akteure haben diesen 2022 kommentiert. Diese Regeln gelten als der erste transnationale Versuch, KI mit verbindlichen und gemeinsam ausgehandelten Normen zu gestalten. Damit nimmt die EU eine Vorreiterrolle zugunsten der europäischen Gesellschaft und Wirtschaft ein.
Dem Entwurf der Europäischen Kommission folgend sollen Regeln für KI entsprechend ihrem Gefahrenpotenzial bestimmt werden. Die Kommission sieht vor, KI-Anwendungen in vier Risikostufen zu klassifizieren, vom minimalen Risiko bis hin zum inakzeptablen Risiko.
Wenn von KI-Systemen erhebliche Risiken für die Gesundheit und die Grundrechte von Personen, für Rechtsgüter oder die Umwelt ausgehen, wie es im Vorschlag der Europäischen Kommission heißt, ist ihre Entwicklung und Einsatz nur unter bestimmten Bedingungen erlaubt. Für Hochrisiko-KI-Systeme, deren Risiken als unannehmbar eingestuft werden, soll ein pauschales Verbot gelten, etwa für sogenanntes Social Scoring durch staatliche Stellen.
:quality(80):fill(efefef,0)/p7i.vogel.de/wcms/63/c9/63c90d979035a/bdi-ebook-cover-cloud-ki.png)
Bestehende Leitfäden und Prüfkataloge in Deutschland
In Deutschland haben unterschiedliche Akteure aus der Standardisierung und KI-Forschung erste Angebote entwickelt, um Regeln für KI-Systeme voranzutreiben.
- Bundesamt für Sicherheit in der Informationstechnik (BSI): Einen Kriterien-Katalog für KI in Cloud-Diensten AIC4. Hier sind Mindestanforderungen von Methoden des maschinellen Lernens in Cloud-Diensten definiert.
- DIN: Neben einer KI-Normungsroadmap mit übergreifendem und richtungsweisendem Charakter, entwickelt DIN konkrete und praxisnahe Regelsätze.
- Fraunhofer-Institut (IAIS): Ein Prüfkatalogmit Leitfäden zur Gestaltung vertrauenswürdiger KI durch Entwickler und Anwender sowie ein Beratungsangebot von Experten. Ziel ist eine transparente, verlässliche, sichere und datenschutzkonforme KI-Anwendung.
- Institut der Wirtschaftsprüfer in Deutschland (IDW): Entwurf eines Prüfungsstandards zur standardisierten Prüfung von KI-Systemen.
- AI Ethics Impact Group: Ein Rahmenwerk, um ethische Prinzipien für KI-Systeme in die Praxis zu übertragen.
„Bei der Bewertung der Kritikalität müssen normative Anforderungen an KI-Systeme benannt und Wertkonflikte diskutiert werden. Welche Risiken sind für wen akzeptabel? Kann der Nutzen einer Anwendung gegen einen möglichen Schaden aufgerechnet werden?", fragt PD. Dr. Jessica Heesen, Leiterin der Forschungsstelle Medienethik an der Universität Tübingen und AG-Leiterin der Plattform Lernende Systeme.
Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.
Artikelfiles und Artikellinks
(ID:49474685)