Künstliche Intelligenz Wie eine vertrauenswürdige KI für Europa geschaffen wird
Anbieter zum Thema
Die Expertengruppe AI HLEG veröffentlicht Richtlinien für die Umsetzung menschenzentrierter und vertrauenswürdiger KI in Europa.

Um die Umsetzung der europäischen Strategie für Künstliche Intelligenz zu unterstützen, arbeiten seit Juni 2018 Expertinnen und Experten von der Europäischen Kommission in der High-Level Expert Group on Artificial Intelligence (AI HLEG) zusammen.
Dazu setzen sie bei der Ausarbeitung von Empfehlungen zur zukunftsbezogenen Politikentwicklung und zu ethischen, rechtlichen und gesellschaftlichen Fragen an, sowie bei sozioökonomischen Herausforderungen. Mitglieder der Kommission sind 52 ausgewählte Vertreterinnen und Vertreter aus Wissenschaft, Zivilgesellschaft und Industrie. Die ersten Ergebnisse wurden Mitte 2019 veröffentlicht und nun zum Abschluss der Arbeit konkretisiert, weiterentwickelt und für Unternehmen sowie öffentliche Organisationen anwendbar gemacht.
„Durch langjährige Forschungslinien im Bereich der KI-Forschung, die Initiative für das KI-Fortschrittszentrum ,Lernende Systeme' und die Mitwirkung im Cyber Valley, Europas größter Forschungskooperation auf dem Gebiet der KI, kann das Fraunhofer IAO fundierte Erfahrungen und Expertise aus der angewandten Forschung in die Arbeit der Expertengruppe einbringen“, so Prof. Dr.-Ing. Prof. e. h. Wilhelm Bauer, Mitglied der Expertengruppe aus der Wissenschaft.
Die Schlüsselanforderung einer vertrauenswürdigen KI
Die finalen Richtlinien für einen menschenzentrierten Ansatz von KI wurden am 17. Juli in der Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment veröffentlicht. Sieben Anforderungen muss ein KI-System demnach erfüllen, um vertrauenswürdig zu sein:
- 1. menschliche Entscheidungsfreiheit und Kontrolle
- 2. technische Robustheit und Sicherheit
- 3. Datenschutz und Data Governance,
- 4. Transparenz
- 5. Diversität, Nichtdiskriminierung sowie Fairness
- 6. ökologisches und gesellschaftliches Wohlergehen
- 7. Rechenschaftspflicht
Dabei sollen KI-Entwickler und -Anwender nicht vor Probleme oder Risiken gestellt, sondern bei der Umsetzung dieser Prinzipien in die Praxis unterstützt und bei der Bewertung ihrer eigenen KI-Systeme angeleitet werden. Deshalb wurde ein Tool entwickelt, das konkrete Schritte zur Selbstbewertung der KI-Anwendung durch deren Anbieter aufzeigt. Für eine simplere Anwendung wurden die sieben Schlüsselanforderungen in Detailanforderungen heruntergebrochen und in Form einer frei verfügbaren Checkliste sowie des begleitenden webbasierten Tools bereitgestellt, das auch online genutzt werden kann.
Dieser Artikel stammt von unserem Partnerportal Industry of Things. Verantwortliche Redakteurin: Lea Täufer
* Juliane Segedi ist am Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO in der Presse- und Öffentlichkeitsarbeit tätig.
(ID:47005333)