KI im Arbeitsleben Szenarien loten Risiken für Einsatz von KI und Machine Learning aus
Wie riskant ist der Einsatz von Künstlicher Intelligenz (KI, engl. Artificial Intelligence, AI) im beruflichen Umfeld wirklich? Und welche Risiken ergeben sich genau? Mit solchen Fragen befassen sich zwei Veröffentlichungen des Projekts ExamAI – KI Testing and Auditing.
Anbieter zum Thema

Dass Digitalisierung und KI die Arbeitswelt verändern werden, darüber gibt es kaum Zweifel. Nur wie? Die Wahrheit dürfte irgendwo zwischen den Horrorszenarien mancher radikalen Kritiker und den rosa Wolken der uneingeschränkten Digitalisierungs-Enthusiasten liegen.
Das ist auch den Akteuren in der deutschen Politik bewusst, die für ihren Gestaltungsauftrag allerdings auf realistische Risiko- und Chancenwahrnehmung angewiesen sind. Deshalb wurde, vom Bundesministerium für Arbeit und Soziales (BMAS), eine neue Organisationseinheit als Thinktank eingerichtet: die Denkfabrik Digitale Arbeitsgesellschaft. Wegen der besonderen Bedeutung dieser Technologie wurde dort ein Observatorium KI in Arbeit und Gesellschaft (KIO) implementiert.
Kriterien für die KI-Bewertung
Dieses wiederum hat das Projekt „ExamAI – KI Testing and Auditing“ implementiert. Es soll Empfehlungen für KI-Evaluierungsrichtlinien entwickeln. Zum Projektteam umfasst Mitglieder der TU Kaiserslautern, der Universität des Saarlandes, des Fraunhofer-Institut für experimentelles Softwareengineering (IESE), der Stiftung Neue Verantwortung und der Gesellschaft für Informatik (GI).
Gegründet im Mai 2020, hat das Projekt sich viel vorgenommen. Zunächst sollen mögliche Chancen und Risiken des KI-Einsatzes anhand konkreter, der Realität entlehnter Szenarien erkannt und formuliert werden. Im Mittelpunkt stehen dabei unter anderem Fragen von Fairness, Diskriminierungsfreiheit oder Sicherheit.
Anschließend sollen bereits existierende oder in Entwicklung befindliche Standards für Anforderungen an KI-Systeme und ihre Überprüfung recherchiert werden. Dann folgt eine Betrachtung der Rechtsanforderungen an KI-Systeme in HR und Produktion. Anschließend will das Projekt mögliche Prüfungsmethoden zu den gewählten Kriterien identifizieren, die schon in der Softwareentwicklung greifen, und diese genau in Hinblick auf die gewünschten Kriterien analysieren. Schließlich sollen Handlungsempfehlungen für eine Regulierung des Tests und der Auditierung von KI-Systemen entstehen.
Nun veröffentlicht das Projekt als Ergebnis des ersten Arbeitsschritts zwei Papiere, die sich mit KI im Personalwesen (sieben Szenarien) und Mensch-Maschine-Kooperation etwa in der Produktion befassen (vier Szenarien). Beide stehen zum kostenlosen Download auf der Projektseite bereit.
Personalwesen: Hohes Risiko für Fehlurteile
Beim Thema Personalwesen, laut EU-Weißbuch KI grundsätzlich Hochrisiko-Einsatzfeld für diese Technologie, ergeben sich in allen Szenarien die üblichen Vorteile der Digitalisierung: Zeit- und Arbeitseinsparung sowie erhöhte Effizienz. Gleichzeitig ergeben sich jedoch Szenario spezifische Risiken. Die einzelnen Szenarien:
- Automatisierte Vorschlagssysteme auf Personalplattformen.
- Automatisierte Bewerbervorauswahl durch KI-Analyse von Lebensläufen, Eingaben in Bewerbungs-Websites oder Videoaufnahmen.
- KI-basierte Background-Checks durch Dienstleister.
- Chatbots in der HR-Abteilung, die gängige Fragen von Mitarbeitern zu bestimmten Themen automatisiert beantworten.
- Internes Jobprofil-Matching. Es kann unter denselben Problemen leiden wie die Zuordnung von Profilen in öffentlichen digitalen Jobbörsen.
- Vorhersage der Kündigungsbereitschaft.
- Automatische Arbeitszeitzuweisung bei Gig-Workern.
Die Risiken kreisen vor allem um Diskriminierung Einzelner oder ganzer Arbeitnehmergruppen, den Bruch von Datenschutz-Regeln und ein ineffizientes Personalwesen, das Chancen nicht erkennt und Risiken nicht wahrnimmt, weil es sich zu sehr auf eine möglicherweise fehlentscheidende KI stützt.
Mensch-Maschine-Kooperation
Im Papier zur Mensch-Maschine-Kooperation steht die Vermeidung von Sach- und Personenschäden im Mittelpunkt. Dabei werden aufseiten der Cobots grundsätzlich Sicherheits- und Normalverhalten unterschieden. Normalverhalten ist bei normalen Arbeitsabläufen in Kraft, Sicherheitsverhalten, sobald die Normalsituation durch sicherheitsrelevante Aspekte, etwa Verletzungsgefahr für Menschen, beeinträchtigt wird. Dabei ist heute der Einsatz von KI zur Steuerung des Sicherheitsverhaltens nicht gesetzlich geregelt, und Cobots sind auch gänzlich ohne die Nutzung von KI-Methoden denkbar.
Die ersten beiden Szenarien befassen sich mit intelligenten Cobots, deren Fehlverhalten zu Produktfehlern oder Sachschäden oder sogar zur Verletzung von Mitarbeitern führen kann. Die Einsatzfelder sind vielfältig: bei der Montage, bei verschiedenen Produktionsschritten, in der Materiallogistik und auch in der Qualitätsprüfung.
Cobot-Sicherheitsverhalten wird heute über starre Regeln zu Abständen, Leistungs- und Kraftgrenzen geregelt, die gesetzlich vorgeschrieben sind. Mit KI wäre ein flexibleres Sicherheitsverhalten denkbar, das zu höheren Effizienzen führt, aber auch zu neuen Risiken, wenn beispielsweise die KI Mitarbeiterverhalten fehlinterpretiert oder wenn die Daten, die die KI auswertet, in der Cloud analysiert werden (Datenschutz). Außerdem stellt sich die Frage, ob solche KI-Formen implementiert werden müssen, sobald die Kosten gering und der Nutzen hoch ist. Und wann genau wären diese Kriterien erfüllt? Muss ein Mensch-Cobot-Gespann sicherer sein als eins aus zwei Menschen?
Fahrerlose Transportsysteme mit KI
Das dritte und das vierte Szenario befassen sich mit fahrerlosen Transportsystemen (FTS) mit KI-Steuerung. Im dritten Szenario geht es darum, dass besonders effiziente Mitarbeiter durch die Zuweisung von immer mehr Arbeit benachteiligt werden. Denn schließlich steigert ihr Einsatz die Effizienz. Das vierte Szenario behandelt Sach- oder Personenschäden durch falsch agierende(FTS. Sie können durch Fehlinterpretationen von Daten oder menschlichem Verhalten durch die KI des FTS entstehen.
Dem stehen aber auch Chancen gegenüber: KI könnte den Umgang mit Störfällen optimieren, für mehr Flexibilität im Materialfluss sorgen und durch Sprach- oder Gestenerkennung die Verständigung zwischen FTS und Mitarbeitern vereinfachen.
Gelöst werden müssen unter anderem Fragen der Auditierung solcher Systeme und Haftungsprobleme, wenn FTS Schäden verursachen. Weitere Fragen ergeben sich, wenn KI das Sicherheitsverhalten von KI flexibilisieren soll. Nominal- und Sicherheitsverhalten könnten mit einer zuverlässigen KI miteinander verschmelzen mit dem Ziel eines automatisch sicheren, flexiblen Normalbetriebs.
Fazit
Die beiden Papiere zeigen, dass sich die realen Risiken von KI-Szenarien sehr wohl konkret eingrenzen und benennen lassen, ohne gleich in Sci-Fi-ähnliche Horrorszenarien abzugleiten. Spannend wird es allerdings, wenn es um taugliche Mess- und Auditiermethoden geht, denen alle an KI-Implementierung und -Benutzung Beteiligten vertrauen. Denn sie werden letztlich darüber entscheiden, wie erfolgreich effizienzsteigernde, intelligente Systeme und Algorithmen im Betrieb eingesetzt werden können. Insofern darf man auf den weiteren Fortgang des Projekts gespannt sein.
Artikelfiles und Artikellinks
(ID:47088869)