Künstliche Intelligenz (KI) ist aus unserem Alltag nicht mehr wegzudenken: Sprachassistenten helfen beim Einkaufen, Staubsauger-Roboter halten die Wohnung sauber und Autos parken ohne menschliche Hilfe ein. Auch die Zahl der Unternehmen, die KI-Systeme nutzen, steigt stetig. Die moderne Technologie optimiert unsere Abläufe und spart Ressourcen.
Prof. Dr. Frank Schönefeld ist Mitglied der Geschäftsleitung von T-Systems MMS und verantwortlich für die Bereiche Technologieentwicklung und Innovation.
(Bild: T-Systems MMS)
Doch schon seit einigen Jahren mehren sich die Stimmen von Technologie-Experten, die vor den Gefahren Künstlicher Intelligenz warnen. Denn die rasant ansteigende Nutzung von KI birgt einige Risiken. Falsche Korrelationen in den Trainingsdaten etwa können zu Diskriminierung bei Jobeinstellungen, Kreditvergaben oder anderen personenbezogenen Entscheidungen führen. Noch drastischer: KI kann eine Bedrohung für die Demokratie darstellen. Erstellt jemand mittels KI-Anwendungen in krimineller Absicht sogenannte Deepfakes, also extrem realistisch wirkende Videos und Bilder, häufig mit kompromittierendem Inhalt, kann das zu verstärkter Polarisierung, Wahlmanipulation und persönlicher Erpressung führen.
Es gibt schon jetzt eine Vielzahl von Bemühungen, den Umgang mit KI nach ethischen Richtlinien zu regeln. So wurde im März 2019 vom KI Bundesverband e. V. das KI-Gütesiegel vorgestellt. Und auch innerhalb der Europäischen Union (EU) gibt es Bestrebungen, KI-Systeme einheitlich zu regulieren. Gleichwohl reicht allein eine Kontrolle der KI-Ethik nicht aus: Die Menschen selbst müssen ethischen Regeln folgen. Und dieselben Regeln nachweislich in KI-Systeme implementieren, um deren Missbrauch zu verhindern.
Der AI Act umfasst, kurz gesagt, Vorschriften für die Entwicklung, Einführung und Nutzung von Künstlicher Intelligenz. Er legt eine Risikobewertung von KI-Systemen fest, auf deren Basis Einschränkungen oder Verbote abgeleitet werden. Grundsätzlich ist der Einsatz von KI verboten, wenn ein hohes Risiko für die menschliche Gesundheit oder Sicherheit besteht sowie wenn die Nutzung zu Grundrechtsverletzungen führen könnte.
Dazu zählt die Anwendung von KI-Systemen, die:
das soziale Verhalten natürlicher oder juristischer Personen zum Zweck der Verhaltensprognose bzw. -steuerung bewerten (sogenannte Sozialkredit-Systeme oder Social Scoring)
durch unterschwellige Manipulation zu psychischen oder physischen Schäden von Personen führen
Kinder oder geistig behinderte Menschen ausbeuten und psychische oder physische Schäden verursachen
Gesichter zum Zweck der Strafverfolgung in öffentlich zugänglichen Räumen biometrisch identifizieren
Eingeschränkt und im Rahmen eines Risikomanagementsystems überwacht werden KI-Systeme mit der Einstufung „hohes Risiko“. Dieses Risiko bezieht sich auf die Datenqualität und -verwaltung sowie technische Dokumentation, die Bereitstellung von Informationen und die menschliche Aufsicht im Hinblick auf Genauigkeit, Robustheit und Sicherheit. KI-Systeme mit einem geringen Risiko oder gänzlich ohne sind uneingeschränkt erlaubt. Der AI Act empfiehlt allerdings freiwillige Verhaltenskodizes im Umgang mit diesen Systemen.
Die Umsetzung übernehmen schließlich auf europäischer und nationaler Ebene Behörden, die die Kriterien für die Risikoeinschätzung festlegen und überwachen. Sie können Sanktionen ergreifen, um die Verordnung durchzusetzen. Bei Verstößen gegen die gelisteten Verbote oder gegen Anforderungen der Hochrisiko-Systeme bezüglich der Datenverwaltung sind Geldbußen von bis zu 30 Millionen Euro oder sechs Prozent des Gesamtjahresumsatzes vorgesehen. Unternehmen oder öffentliche Stellen, die KI-Anwendungen entwickeln oder verwenden, sind verpflichtet, bestimmte Anforderungen und Verpflichtungen einzuhalten.
Bedeutung für den Umgang mit Künstlicher Intelligenz
Die Strafen für Verstöße sind also durchaus beträchtlich, weshalb es für Anbieter und Nutzerinnen und Nutzer von Künstlicher Intelligenz umso wichtiger ist, die Regularien des AI Acts zu kennen und zu befolgen. Anbieter sind hier in der Pflicht, ein auf KI bezogenes Qualitätsmanagement zu etablieren sowie eine technische Dokumentation zu führen und Protokolle verpflichtend zu machen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Betreiber müssen außerdem eine Konformitätsbewertung vornehmen und das System im Falle wesentlicher Änderungen neu bewerten. Das KI-System selbst muss zudem in einer entsprechenden EU-Datenbank registriert werden und eine CE-Kennzeichnung aufweisen, die eine Konformitätserklärung beinhaltet. Nach dem Inverkehrbringen des Systems sind regelmäßige Überwachungen vorgeschrieben. Hier ist es empfehlenswert, dass Unternehmen mit der nationalen Aufsichtsbehörde zusammenarbeiten.
In 5 Schritten auf den AI Act vorbereiten
Unternehmen haben jetzt die Chance, sich rechtzeitig und umfassend vorzubereiten. Das lässt sich in folgenden Schritten umsetzen:
1. Wissen aneignen: Das Aneignen von Wissen rund um KI und den AI Act ist essenziell. Alle Mitarbeiterinnen und Mitarbeiter müssen darüber in Kenntnis gesetzt werden, wo KI sie in ihrem beruflichen Alltag begleitet und wo ihr Unternehmen sie grundsätzlich anwendet. Besonders wichtig ist dabei die Aufklärung über Vorteile und Risiken.
2. Das richtige Mindset schaffen: Eine digitale Unternehmensverantwortungsstrategie (CDR) zu entwickeln und nachhaltig in die Prozesse zu integrieren, fördert das Vertrauen in KI. Das lässt sich realisieren, wenn das Unternehmen bereits etablierte Standards, Normen und Leitlinien in seine Prozesse integriert hat. Hierfür gibt es unternehmensübergreifende Workshops und Beratungskonzepte, die Interessenten bei der Entwicklung und Implementierung von Leitlinien zur ethischen Betrachtung von KI-Anwendungen unterstützen.
3. Fakten schaffen und Transparenz zeigen: Um zu veranschaulichen, wie konkret Technologie Menschen unterstützt, ist es sinnvoll, die Vorteile von Technologien zu veranschaulichen. Hier helfen Indikatoren wie etwa die Anzahl der Phishing-Angriffe, die KI-gestützte Anwendungen abgewehrt haben oder die Summe der so entdeckten Anomalien. Solche Fakten demonstrieren den Mehrwert von Technologie und wirken dadurch vertrauensfördernd. Außerdem kann es sinnvoll sein, die Programmierung mittels Data Sheets transparent zu machen, um so die Funktionsweise der Technologie darzulegen.
4. Interdisziplinarität aufbauen: Der Umgang mit Künstlicher Intelligenz geht über die IT-Verantwortung hinaus und ist vor allem im Data Privacy Management und Risk Management einzuordnen. Daher sollten Unternehmen abteilungs- und funktionsübergreifende Arbeitskreise bilden, beispielsweise mit IT-Fachleuten, Jurist*innen, Risikomanager*innen und Datenschutzverantwortlichen. So können sie effizient und ohne Doppelungen alle Aspekte der neuen Verordnung abdecken: juristische Anforderungen, technische Notwendigkeiten und Umsetzungsmöglichkeiten.
5. Zertifizierung nach Qualitätsstandards: Beim Erarbeiten von Qualitätsstandards für einen sicheren Einsatz von KI muss niemand das Rad neu erfinden: Es gibt bereits zahlreiche Qualitätsstandards, die eine Softwareentwicklung nach datenschutztechnischen und ethischen Kriterien erleichtern. Ein unternehmensinternes Privacy-and-Security-Assessment-Verfahren (PSA-Verfahren) kann beispielsweise eine sichere und faire System- und Produktentwicklung unterstützen. Die Telekom hat beispielsweise in ihr PSA-Verfahren auch KI-Kriterien eingegliedert, um dadurch wichtige Kriterien der Technologie zu berücksichtigen. Weitere ethische Qualitätsstandards, nach denen sich Unternehmen zertifizieren können, beinhaltet unter anderem die Norm ISO 25010. Damit allen Spezialisten und Spezialistinnen, wie etwa Projektleitern, Datenexperten und Programmierern, die Umsetzung der KI-Leitlinien im Entwicklungsprozess gelingt, gibt es Checklistendokumente der European AI Alliance und attestierte Kriterienkataloge für eine vertrauenswürdige KI.
Digitale Ethik operativ und strategisch verankern
Unternehmen müssen sich aktiv mit digitaler Ethik befassen und diese strategisch wie operativ in ihrem Handeln verankern. Denn die ethische Gestaltung von Algorithmen muss ein zentraler Bestandteil der Unternehmenskultur und der Zusammenarbeit zwischen Organisationen sein.
Das bedeutet zunächst einen hohen zeitlichen und finanziellen Aufwand, gleichzeitig bietet sich für Unternehmen die Chance, sich vor Eintreten des neuen Gesetzes klar zu positionieren und so das Vertrauen von Kunden, Partnern und auch potenziellen Mitarbeitern zu festigen.