Künstliche Intelligenz und Ethik

Standards für ethisches KI-Design in Arbeit

| Autor / Redakteur: Ariane Rüdiger / Nico Litzel

Dr. Alex Walz, Senior Research Fellow, MPI, erklärt am Rednerpult sein abgestuftes Regulierungsmodell für ethische Fragen in der Informationstechnik.
Dr. Alex Walz, Senior Research Fellow, MPI, erklärt am Rednerpult sein abgestuftes Regulierungsmodell für ethische Fragen in der Informationstechnik. (Bild: Rüdiger)

Umfassende Personenprofile, Drohnen, Hacks auf Parlamente, politische Hetze in sozialen Medien … Anlässe, über die Ethik der IT zu reden, gibt es genug. Genau zu diesem Zweck traf sich Ende Juni in München das Weltforum für Geschäftsethik zur Münchner Konferenz „Gestaltung einer humanen vierten Industriellen Revolution.“

In den vergangenen Jahren hat die IT durch neue technologische Entwicklungen endgültig ihre Unschuld verloren. Der Grund: Informationstechnik ist nicht mehr auf eine mehr oder weniger abgeschlossene Digitalsphäre beschränkt, sondern durchdringt unser Leben unsichtbar allgegenwärtig. Sie wird inzwischen zur unverzichtbaren Komponente der großen Systeme, die Gesellschaften am Leben halten: Strom- und Wasserversorgung, Finanzsystem, politischer Diskurs.

Auch banale Geräte und Alltagsdinge, zum Beispiel Kleidung, werden zu Datenlieferanten, deren Output häufig auf wenig transparente Weise genutzt wird. Und Maschinen können inzwischen autonom darüber entscheiden, wen sie, beispielsweise auf dem Schlachtfeld oder bei Polizeieinsätzen, töten. Künstliche Intelligenz (KI) werde schon bald den Menschen überflügeln, glauben Singularitäts-Propagandisten wie Ray Kurzweil, der, um seinen Tod bis zum Transfer seines Geistes in eine Maschine hinauszuzögern, angeblich täglich unzählige Nahrungsergänzungs-Tabletten schluckt.

Mit anderen Worten: Nachdenken über die Gestaltung der IT und Regulierung der Akteure tut not. Im Deutschen Patent- und Markenamt waren Fachleute aus aller Welt versammelt und boten einen Einblick darin, wie weit die Berücksichtigung ethischer Maßstäbe bei der Gestaltung von IT- oder intelligenten Systemen und Anwendungen schon gediehen ist.

Wohl am konkretesten in dieser Hinsicht sind die Bemühungen der IEEE. Sie arbeitet derzeit an einem ganzen Satz von Standards. „Wir wünschen uns, dass deren Einhaltung genauso selbstverständlich wird wie die anderer IEEE-Standards“, sagt Kay-Firth Butterfield, stellvertretende Vorsitzende der IEEE – Global Initiative for Ethical Considerations in the Design of Autonomous Systems (Weltweite Initiative für Ethische Überlegungen bei der Entwicklung autonomer Systeme. Auch am Max-Planck-Institut für Innovation und Wettbewerb arbeitet man an diesen Fragen. Seine bisherigen Ergebnisse referierte Dr. Axel Walz, der dort Senior Research Fellow ist.

Abgestufte Herangehensweise

Walz beschäftigt sich damit, wie es möglich ist, Ethik in KI zu implementieren. „Wir stehen am Scheideweg“, betonte er. „Unsere Entscheidungen beeinflussen maßgeblich, wie die zukünftige Gesellschaft aussieht.“ Wie KI jeweils implementiert werden solle, sei in Hinblick darauf zu entscheiden, welche ethischen Werte jeweils geschätzt werden sollten. Es sei durchaus ein Unterschied, ob eine Software lediglich individuelle persönliche Einstellungen respektieren solle oder gegebenenfalls fundamentale ethische Kernwerte beeinträchtige, etwa die Menschenrechte, Menschenwürde oder das Leben: Gehe es um individuelle Einstellungen, reiche, mit Zertifizierungen der betreffenden Systeme, vertraglichen Vereinbarungen zwischen Anbieter und Nutzer und ähnlichen Mitteln zu arbeiten, um ethische Ergebnisse zu erreichen.

Gehe es dagegen um fundamentale Rechtsfragen die die Menschenrechte, die Menschenwürde und ähnlich hoch angesiedelte Werte beträfen und diese schlimmstenfalls in Konflikt mit der Privatautonomie brächten, sei ein breit angelegter, nötigenfalls auch globaler demokratischer Diskurs und Prozess erforderlich, um zu Entscheidungen zu kommen, die anschließend auch breit akzeptiert werden.

Als Beispiel für die erstgenannte Gruppe nannte Walz etwa eine Software, die Rezepte bereitstellt, die den Regeln einer Religion entsprechen. Hier würde es reichen, wenn sich der Anbieter der Lösung entsprechend zertifizieren würde. Sollen Systeme dagegen über das Leben von Menschen autonom entscheiden, kann der Diskurs gar nicht intensiv genug sein.

Weit weniger abstrakt verläuft derzeit der Standardisierungsprozess, der in die Standards der Gruppe IEEE P 7000 mündet und unter dem Titel „Ethical Alligned Design“ läuft. An ihm beteiligen sich bisher rund 240 interdisziplinäre Experten. Da der Prozess offen ist, forderte Butterfield ausdrücklich alle Experten, die sich mit Themen rund um IT und Ethik beschäftigen, zur Teilnahme an der Arbeit der Gruppe auf. Besonders junge Spezialisten sollten sich melden, denn, so Butterfield: „Wir entwickeln gerade die Welt, in der Sie einmal leben sollen.“ Derzeit gibt es bereits zehn Arbeitsgruppen, die sich mit diversen Unterstandards beschäftigen.

Ein neuer Satz Standards für digitale Ethik

Grundlegend ist der Standard P7000, („Model Profess for Addressing Ethical Concerns During System Design”), der einen Prozess beschreibt, mit dessen Hilfe ethische Erwägungen von Anfang an ins Systemdesign einfließen. Am weitesten fortgeschritten ist derzeit der Standard P7001, der sich mit der Transparenz autonomer Systeme befasst – gerade fürs autonome Fahren von höchster Bedeutung. Schließlich werden Verkehrsrichter eines Tages darüber zu entscheiden haben, ob ein Todesopfer im Verkehr auf das Versagen der Maschine oder eines menschlichen Verkehrsteilnehmers zurückgeführt werden muss.

P7002 (Data Privacy Process) beschäftigt sich mit Systemen und Software, die persönliche Daten sammeln und auswerten. P7003 (Algorithmic Bias Considerations) beschreibt, wie man verhindert, dass sich die – positiven oder negativen - Vorurteile von Programmierern oder Auftraggebern in angeblich neutralen Algorithmen wiederfinden. P7004 (Standard for Child and Student Data Governance) entwickelt Richtlinien dafür, wie Bildungsinstitutionen mit den Daten von Schülern und Studenten umgehen sollen, um diese zu schützen.

P7005 (Standard for Transparent Employer Data Governance) tut dasselbe für Unternehmen beziehungsweise Mitarbeiterdaten, soll aber gleichzeitig den Angestellten von Unternehmen ermöglichen, ihre Daten sicher und geschützt mit anderen Mitarbeitern zu teilen. Vorbild war hier die Europäische Datenschutzverordnung, die im Mai kommenden Jahres in Kraft tritt. P7006 (Standard for Personal Data Artificial Intelligence Agent) befasst sich damit, wie Verwaltung und Unternehmen ethische Werte bei der Gestaltung autonom entscheidender Algorithmen berücksichtigen können. Ziel ist, dass Einzelne im Detail bestimmen können, wie und welche ihrer Daten verwendet werden, sodass sie ihr digitales Profil kontrollieren können.

IEEE P7007 – bisher nur im Kongress, nicht auf der IEEE-Seite im Web sichtbar – beschreibt ontologische Standards für ethisch betriebene Roboter und Automatisierungssysteme, P7008 mit dem resilienten Design autonomer und halbautonomer Systeme, P7009 befasst sich mit ethischem „Nudging“ für Roboter, intelligente und autonome Systeme und P7010 mit der Schaffung von „Tokku“-Gebieten – das sind Gebiete, in denen autonome intelligente Systeme praktisch im echten Leben erprobt werden. Außerdem gibt die Gruppe ein jährlich überarbeitetes Handbuch „Ethically Alligned Design“ heraus, das kostenlos heruntergeladen werden kann (Registrierung erforderlich). Es beschäftigt sich mit dem derzeitigen Stand der Dinge auf diesem wahrscheinlich diskursintensiven, um nicht zu sagen, umstrittenen Gebiet.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44777844 / Künstliche Intelligenz)