Kommentar von Sebastian Bluhm, Plan D Künstliche Intelligenz braucht menschliche Vernunft

Von Sebastian Bluhm |

Anbieter zum Thema

Der Einsatz Künstlicher Intelligenz (KI) stellt uns vor enorme ethische Herausforderungen. Hierfür müssen wir keine Science-Fiction-Szenarien entwerfen. Veränderungen unserer Arbeitswelt und tiefgreifende Analysen unserer persönlichen Daten sind real – und verlangen nach realistischen Antworten.

Der Autor: Sebastian Bluhm ist Managing Partner bei Plan D
Der Autor: Sebastian Bluhm ist Managing Partner bei Plan D
(Bild: Plan D)

Tech-Milliardär Elon Musk warnt immer wieder vor den Risiken des Einsatzes Künstlicher Intelligenz und bezeichnet sie etwa als „fundamentales Risiko für die Existenz der menschlichen Zivilisation“. Es sind Kassandrarufe, die im Vagen, Unkonkreten bleiben, während sie gleichzeitig die größtmögliche Bedrohung implizieren. Sie zwingen unmittelbar dazu, an dystopische Science-Fiction-Szenarien à la Terminator zu denken, in der die Menschheit sich ihrer eigenen Ausrottung durch die feindliche KI Skynet erwehren muss. Dem Diskurs um den verantwortungsbewussten Einsatz Künstlicher Intelligenz schaden solche Gedankenspiele mehr, als sie nützen. Nicht nur, weil sie durch ihre Zuspitzung eine plumpe Dafür-oder-dagegen-Logik befeuern; sie lenken mit ihrer Langfrist-Perspektive auch davon ab, dass wir längst vor realen ethischen Fragen im Zusammenhang mit KI stehen, auf die es Antworten zu finden gilt.

KI als Alternative und Ergänzung menschlicher Arbeit

Zum einen müssen wir uns der Tatsache stellen, dass der zunehmende Einsatz Künstlicher Intelligenz – wie jede neue Technologie – unsere Arbeitsmärkte stark verändern wird.

Eine wesentliche Stärke von KI ist, dass sie sehr spezifische Aufgaben, die der Mensch vorab für sie definiert, deutlich schneller, effizienter und akkurater bewältigen kann als dieser selbst. In der Krebsdiagnose etwa sind einzelne Algorithmen mitunter besser in der Lage, Tumore auf Bildern zu erkennen als erfahrene Ärztinnen und Ärzte. Künstliche Intelligenz eignet sich also ideal dafür, Routineaufgaben zu übernehmen, die der Mensch bisher selbst erledigen musste – und das deutlich kostengünstiger und teilweise sogar mit besseren Ergebnissen. Die Folgen dieser Entwicklung sind offenkundig: KI wird menschliche Arbeitskraft in einigen Bereichen teilweise oder vollständig ersetzen. Der Bedarf an Arbeitskräften in diesen Bereichen wird sich reduzieren, den betroffenen Arbeitnehmerinnen und Arbeitnehmern droht die Arbeitslosigkeit.

Gleichzeitig werden sich aus den veränderten Gegebenheiten neue Bedürfnisse ergeben, neue Aufgaben und Berufsbilder entstehen. Auch hierfür bietet die Geschichte genug Beispiele, von der industriellen Revolution bis zur Erfindung des Internets. Auch diese Innovationen führten zu gesellschaftlichen Verwerfungen, transformierten die Arbeitswelt ihrer Zeit und ließen eine völlig neue an ihre Stelle treten. So hätte vor dreißig Jahren niemand erahnen können, in welchem Maße digitale Technologien sich etablieren und welchen Bedarf an Entwicklerinnen und Entwicklern und angrenzenden Berufsbildern sie mit sich bringen würden.

Auch den heutigen Fachkräftemangel, der die Suche nach Alternativen zu menschlicher Arbeitskraft immer nötiger macht, haben viele Arbeitsmarkt-Ökonomen lange nicht vorhergesehen. So konnten allein 2021 über 700.000 Stellen nicht besetzt werden, da für sie keine geeigneten Kandidatinnen und Kandidaten vorhanden waren. Einige Schätzungen gehen davon aus, dass 2030 rund drei Millionen Arbeitskräfte fehlen könnten. Künstliche Intelligenz könnte in diesem Szenario einen wesentlichen Beitrag leisten, den extremen Fachkräftemangel zumindest abzufedern.

KI als Instrument der Kontrolle?

Zum anderen müssen wir schon heute die Frage beantworten, unter welchen Bedingungen wir KI einsetzen möchten, um die persönlichen Daten von Menschen zu analysieren. Auch hier lässt sich ein klares Nein nur in Extremfällen leicht sagen.

So ist eine Nutzung wie in der Volksrepublik China, in der KI-Systeme für die Überwachung des öffentlichen Raums genutzt werden, um Menschen an ihren Gesichtszügen zu erkennen, in einer offenen, rechtsstaatlichen Gesellschaft nicht hinnehmbar. Die potenziellen Schäden, die der Missbrauch einer solchen Technologie mit sich bringt, überwiegen den möglichen Nutzen bei weitem. Bei weniger totalitär gelagerten Beispielen fällt die Einordnung dagegen bereits schwerer. So setzen Personalabteilungen in den USA bereits heute Künstliche Intelligenz ein, um neben den Lebensläufen von Bewerberinnen und Bewerbern auch deren Social-Media-Auftritte zu prüfen und zu bewerten.

Fühlt sich eine derartige Durchleuchtung potenzieller Arbeitnehmerinnen und Arbeitnehmer nicht bereits übergriffig an? Doch wie privat sind im Internet gepostete, für jeden sichtbare Bilder und Texte wirklich? Ist es nicht auch legitim, dass ein Unternehmen sich anhand der so geteilten Informationen einen potenziellen Mitarbeiter vorab sehr genau ansieht, ehe es ihn oder sie einstellt? Die Frage lässt sich hier nicht abschließend beantworten, doch sie illustriert, wie sehr es bei der ethischen Einordnung einer Technologie auf den Kontext ihrer Nutzung und die tatsächlichen Ergebnisse ankommt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Zwei Thesen für eine gelungene KI-Politik

Künstliche Intelligenz ist gekommen, um zu bleiben. Ein vollständiger Verzicht auf ihren Einsatz erscheint weder realistisch möglich noch wünschenswert. Wir werden lernen müssen, sie verantwortungsbewusst einzusetzen und ihren Einfluss auf unsere Gesellschaft zu steuern. Die Entscheidung, welche Nutzung vertretbar erscheint, welche nicht, und wie wir auf die Folgen aus dem Einsatz von KI reagieren, sollte nicht allein der Wirtschaft überlassen werden. Sie ist Aufgabe demokratisch legitimierter Politik. Hierzu zwei Thesen:

Erstens: KI-Politik ist (auch) Arbeitsmarkt- und Bildungspolitik. Wir werden nicht verhindern können und wollen, dass der Einsatz Künstlicher Intelligenz sich in vielen Branchen durchsetzen wird; ebenso wenig, dass dieser Einsatz zu einem Verlust traditioneller Aufgaben führen wird. Doch wir können diesen Wandel gestalten und negative Folgen minimieren. Hierzu müssen wir als Gesellschaft in die Ausbildung der richtigen Fachkräfte für morgen investieren. Genauso werden wir aber auch Betroffene durch effektive Aus- und Weiterbildungen sowie Umschulungsmaßnahmen ermächtigen müssen, in dem sich verändernden Arbeitsmarkt nicht den Anschluss zu verlieren. Ein Ausspielen unterschiedlicher Gruppen, etwa entlang von Generationen- und Berufsgrenzen, darf es nicht geben.

Zweitens: KI-Politik muss präzise Politik sein. Ein Beispiel: Bereits 2021 hat die EU-Kommission einen Vorschlag für eine Verordnung zur Regulation Künstlicher Intelligenz vorgestellt. Mit diesem möchte sie den Einsatz von KI sicherer und vertrauenswürdiger gestalten. Der Vorschlag sieht die Unterscheidung zwischen verschiedenen Anwendungsbereichen und vier Risikoklassen vor, an die wiederum unterschiedliche Anforderungen geknüpft sind.

Unklare Begrifflichkeiten

KI-Systeme, die nach diesen Kriterien ein inakzeptables Risiko darstellen, sollen verboten werden. Als hochriskant eingestufte Anwendungen sollen strengen Anforderungen unterliegen. Dieser risikobasierte Ansatz ist zu begrüßen. Allerdings bleibt die Verordnung in einigen Bereichen hinter ihrem Anspruch zurück und führt Kategoriebegriffe ein, ohne sie selbst klar zu definieren. Die beiden Kategorien „unannehmbares” und „hohes” Risiko bleiben etwa an vielen Stellen unklar, die Kommission versäumt es, eindeutige Begrifflichkeiten und Abgrenzungen einzuführen. Wo konkret beginnen etwa die „Ausnutzung der Schwächen von Kindern“ oder „Techniken zur unterschwelligen Beeinflussung“? Derartige große Trennlinien sollten in anwendungs- und industriespezifischen Leitfäden konkretisiert werden.

Wie die menschliche ist auch Künstliche Intelligenz keine perfekte Intelligenz. Zwar ist sie nicht, wie wir, durch persönliche Vorlieben oder Kognitionsfehler beeinflusst; trotzdem hat auch sie ihre Grenzen. Sie mag für konkrete Aufgaben besser gerüstet sein, doch letztlich beschränkt sich ihr Einfluss auf die Bereiche, die wir ihr zugestehen. Künstliche Intelligenz braucht heute wie morgen: menschliche Vernunft.

Artikelfiles und Artikellinks

(ID:48754535)