Der Einsatz Künstlicher Intelligenz (KI) stellt uns vor enorme ethische Herausforderungen. Hierfür müssen wir keine Science-Fiction-Szenarien entwerfen. Veränderungen unserer Arbeitswelt und tiefgreifende Analysen unserer persönlichen Daten sind real – und verlangen nach realistischen Antworten.
Der Autor: Sebastian Bluhm ist Managing Partner bei Plan D
(Bild: Plan D)
Tech-Milliardär Elon Musk warnt immer wieder vor den Risiken des Einsatzes Künstlicher Intelligenz und bezeichnet sie etwa als „fundamentales Risiko für die Existenz der menschlichen Zivilisation“. Es sind Kassandrarufe, die im Vagen, Unkonkreten bleiben, während sie gleichzeitig die größtmögliche Bedrohung implizieren. Sie zwingen unmittelbar dazu, an dystopische Science-Fiction-Szenarien à la Terminator zu denken, in der die Menschheit sich ihrer eigenen Ausrottung durch die feindliche KI Skynet erwehren muss. Dem Diskurs um den verantwortungsbewussten Einsatz Künstlicher Intelligenz schaden solche Gedankenspiele mehr, als sie nützen. Nicht nur, weil sie durch ihre Zuspitzung eine plumpe Dafür-oder-dagegen-Logik befeuern; sie lenken mit ihrer Langfrist-Perspektive auch davon ab, dass wir längst vor realen ethischen Fragen im Zusammenhang mit KI stehen, auf die es Antworten zu finden gilt.
KI als Alternative und Ergänzung menschlicher Arbeit
Zum einen müssen wir uns der Tatsache stellen, dass der zunehmende Einsatz Künstlicher Intelligenz – wie jede neue Technologie – unsere Arbeitsmärkte stark verändern wird.
Eine wesentliche Stärke von KI ist, dass sie sehr spezifische Aufgaben, die der Mensch vorab für sie definiert, deutlich schneller, effizienter und akkurater bewältigen kann als dieser selbst. In der Krebsdiagnose etwa sind einzelne Algorithmen mitunter besser in der Lage, Tumore auf Bildern zu erkennen als erfahrene Ärztinnen und Ärzte. Künstliche Intelligenz eignet sich also ideal dafür, Routineaufgaben zu übernehmen, die der Mensch bisher selbst erledigen musste – und das deutlich kostengünstiger und teilweise sogar mit besseren Ergebnissen. Die Folgen dieser Entwicklung sind offenkundig: KI wird menschliche Arbeitskraft in einigen Bereichen teilweise oder vollständig ersetzen. Der Bedarf an Arbeitskräften in diesen Bereichen wird sich reduzieren, den betroffenen Arbeitnehmerinnen und Arbeitnehmern droht die Arbeitslosigkeit.
Gleichzeitig werden sich aus den veränderten Gegebenheiten neue Bedürfnisse ergeben, neue Aufgaben und Berufsbilder entstehen. Auch hierfür bietet die Geschichte genug Beispiele, von der industriellen Revolution bis zur Erfindung des Internets. Auch diese Innovationen führten zu gesellschaftlichen Verwerfungen, transformierten die Arbeitswelt ihrer Zeit und ließen eine völlig neue an ihre Stelle treten. So hätte vor dreißig Jahren niemand erahnen können, in welchem Maße digitale Technologien sich etablieren und welchen Bedarf an Entwicklerinnen und Entwicklern und angrenzenden Berufsbildern sie mit sich bringen würden.
Auch den heutigen Fachkräftemangel, der die Suche nach Alternativen zu menschlicher Arbeitskraft immer nötiger macht, haben viele Arbeitsmarkt-Ökonomen lange nicht vorhergesehen. So konnten allein 2021 über 700.000 Stellen nicht besetzt werden, da für sie keine geeigneten Kandidatinnen und Kandidaten vorhanden waren. Einige Schätzungen gehen davon aus, dass 2030 rund drei Millionen Arbeitskräfte fehlen könnten. Künstliche Intelligenz könnte in diesem Szenario einen wesentlichen Beitrag leisten, den extremen Fachkräftemangel zumindest abzufedern.
KI als Instrument der Kontrolle?
Zum anderen müssen wir schon heute die Frage beantworten, unter welchen Bedingungen wir KI einsetzen möchten, um die persönlichen Daten von Menschen zu analysieren. Auch hier lässt sich ein klares Nein nur in Extremfällen leicht sagen.
So ist eine Nutzung wie in der Volksrepublik China, in der KI-Systeme für die Überwachung des öffentlichen Raums genutzt werden, um Menschen an ihren Gesichtszügen zu erkennen, in einer offenen, rechtsstaatlichen Gesellschaft nicht hinnehmbar. Die potenziellen Schäden, die der Missbrauch einer solchen Technologie mit sich bringt, überwiegen den möglichen Nutzen bei weitem. Bei weniger totalitär gelagerten Beispielen fällt die Einordnung dagegen bereits schwerer. So setzen Personalabteilungen in den USA bereits heute Künstliche Intelligenz ein, um neben den Lebensläufen von Bewerberinnen und Bewerbern auch deren Social-Media-Auftritte zu prüfen und zu bewerten.
Fühlt sich eine derartige Durchleuchtung potenzieller Arbeitnehmerinnen und Arbeitnehmer nicht bereits übergriffig an? Doch wie privat sind im Internet gepostete, für jeden sichtbare Bilder und Texte wirklich? Ist es nicht auch legitim, dass ein Unternehmen sich anhand der so geteilten Informationen einen potenziellen Mitarbeiter vorab sehr genau ansieht, ehe es ihn oder sie einstellt? Die Frage lässt sich hier nicht abschließend beantworten, doch sie illustriert, wie sehr es bei der ethischen Einordnung einer Technologie auf den Kontext ihrer Nutzung und die tatsächlichen Ergebnisse ankommt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Zwei Thesen für eine gelungene KI-Politik
Künstliche Intelligenz ist gekommen, um zu bleiben. Ein vollständiger Verzicht auf ihren Einsatz erscheint weder realistisch möglich noch wünschenswert. Wir werden lernen müssen, sie verantwortungsbewusst einzusetzen und ihren Einfluss auf unsere Gesellschaft zu steuern. Die Entscheidung, welche Nutzung vertretbar erscheint, welche nicht, und wie wir auf die Folgen aus dem Einsatz von KI reagieren, sollte nicht allein der Wirtschaft überlassen werden. Sie ist Aufgabe demokratisch legitimierter Politik. Hierzu zwei Thesen:
Erstens: KI-Politik ist (auch) Arbeitsmarkt- und Bildungspolitik. Wir werden nicht verhindern können und wollen, dass der Einsatz Künstlicher Intelligenz sich in vielen Branchen durchsetzen wird; ebenso wenig, dass dieser Einsatz zu einem Verlust traditioneller Aufgaben führen wird. Doch wir können diesen Wandel gestalten und negative Folgen minimieren. Hierzu müssen wir als Gesellschaft in die Ausbildung der richtigen Fachkräfte für morgen investieren. Genauso werden wir aber auch Betroffene durch effektive Aus- und Weiterbildungen sowie Umschulungsmaßnahmen ermächtigen müssen, in dem sich verändernden Arbeitsmarkt nicht den Anschluss zu verlieren. Ein Ausspielen unterschiedlicher Gruppen, etwa entlang von Generationen- und Berufsgrenzen, darf es nicht geben.
Zweitens: KI-Politik muss präzise Politik sein. Ein Beispiel: Bereits 2021 hat die EU-Kommission einen Vorschlag für eine Verordnung zur Regulation Künstlicher Intelligenz vorgestellt. Mit diesem möchte sie den Einsatz von KI sicherer und vertrauenswürdiger gestalten. Der Vorschlag sieht die Unterscheidung zwischen verschiedenen Anwendungsbereichen und vier Risikoklassen vor, an die wiederum unterschiedliche Anforderungen geknüpft sind.
Unklare Begrifflichkeiten
KI-Systeme, die nach diesen Kriterien ein inakzeptables Risiko darstellen, sollen verboten werden. Als hochriskant eingestufte Anwendungen sollen strengen Anforderungen unterliegen. Dieser risikobasierte Ansatz ist zu begrüßen. Allerdings bleibt die Verordnung in einigen Bereichen hinter ihrem Anspruch zurück und führt Kategoriebegriffe ein, ohne sie selbst klar zu definieren. Die beiden Kategorien „unannehmbares” und „hohes” Risiko bleiben etwa an vielen Stellen unklar, die Kommission versäumt es, eindeutige Begrifflichkeiten und Abgrenzungen einzuführen. Wo konkret beginnen etwa die „Ausnutzung der Schwächen von Kindern“ oder „Techniken zur unterschwelligen Beeinflussung“? Derartige große Trennlinien sollten in anwendungs- und industriespezifischen Leitfäden konkretisiert werden.
Wie die menschliche ist auch Künstliche Intelligenz keine perfekte Intelligenz. Zwar ist sie nicht, wie wir, durch persönliche Vorlieben oder Kognitionsfehler beeinflusst; trotzdem hat auch sie ihre Grenzen. Sie mag für konkrete Aufgaben besser gerüstet sein, doch letztlich beschränkt sich ihr Einfluss auf die Bereiche, die wir ihr zugestehen. Künstliche Intelligenz braucht heute wie morgen: menschliche Vernunft.