Künstliche Intelligenz (KI) bietet spannende Einsatzmöglichkeiten in unterschiedlichen Branchen. Die Prüfung von Kreditwürdigkeit in der Finanzwirtschaft, Chatbots sowie selbstlernende Maschinen sind dabei nur erste Anwendungsbeispiele. Gleichzeitig regt Künstliche Intelligenz die Diskussionen insbesondere in Hinblick auf die Tragweite der Entscheidungen an: Welche Informationen werden von KI-Systemen genutzt? Wann trifft ein Algorithmus Entscheidungen?
KI-Systeme haben immer größeren Einfluss auf unser tägliches Leben, es fehlt aber an Transparenz und Regulierung um ihre Auswirkungen zu kontrollieren.
So objektiv wie sie oft wirken, sind KI-Systeme und ihre Entscheidungen meist nicht. Schließlich werden sie von Menschen entwickelt, deren Vorurteile auch in die von ihnen geschaffene KI-Software einfließen. Das hat in der Vergangenheit immer wieder zu Fällen geführt, bei denen beispielsweise Frauen oder Minderheiten in Bewerbungsprozessen aufgrund von KI-gestützten Entscheidungen diskriminiert wurden.
Rahmen soll Einsatz von KI vorgeben
Bereits 2019 haben die obersten Datenschützer der Länder und des Bundes bei einem Treffen auf dem Hambacher Schloss über die datenschutzrechtlichen Implikationen von Künstlicher Intelligenz beraten. Die historische Dimension des Hambacher Schlosses für die deutsche Demokratie war den Datenschützern dabei durchaus bewusst. Schließlich hat KI auch das Potenzial schwerwiegende Eingriffe in Grundrechte zu ermöglichen und so die Demokratie zu gefährden – beispielsweise durch Social-Scoring-Systeme mit KI-Komponenten und Gesichtserkennungs-Software wie sie in China verwendet werden. Dabei haben sich die Datenschützer auf sieben Prinzipien geeinigt, die als Rahmen für den Einsatz von Künstlicher Intelligenz dienen sollen.
Der Fokus liegt bei diesen Leitlinien darauf, die grundlegenden Grenzen aufzuzeigen, in denen sich KI bewegen darf. So ist Künstliche Intelligenz an das Grundgesetz gebunden und darf den Menschen nicht zum Objekt machen. KI-Systeme dürfen also Entscheidungen mit einer rechtlichen Wirkung grundsätzlich nicht ohne Einwirkung eines Menschen treffen (vgl. auch Art. 22 Datenschutzgrundverordnung (DSGVO)). Eine weitere Anforderung ist die Transparenz und Nachvollziehbarkeit von Künstlicher Intelligenz. Nach Art. 5 Abs. 1 lit. a DSGVO muss die Verarbeitung von personenbezogenen Daten für die betroffene Person in nachvollziehbarer Weise durchgeführt werden.
Bei so genannten Expertensystemen wie Chatbots oder medizinischer Diagnostik, die auf Wenn-Dann-Logiken basieren, kann dies anhand der vorgegebenen Systeme geschehen. Für KI-Anwendungen auf Basis maschinellen Lernens stellt dies jedoch eine größere Herausforderung dar, da sie mithilfe riesiger Datenmengen neue Muster erkennen, um die vorgesehenen Aufgaben zu erfüllen. Entsprechend entscheiden sie auch eigenständig darüber, wie diese Daten verwendet werden. Dabei ist die KI auch in der Lage, Veränderungen zu verstehen und sich ihnen flexibel anzupassen. Während bei Expertensystem bei der Entwicklung bereits feststeht, wie Daten verwendet werden, lässt sich dies bei KI-Systemen mit maschinellem Lernen nicht voraussagen. Besonders prekär wird diese Problematik, wenn personenbezogene Daten verarbeitet werden – wie etwa bei Bonitätsprüfungen im Finanzsektor.
Letztendlich war auch den Datenschutzwächtern bewusst, dass sich die Entwicklungen im KI-Bereich noch gar nicht final abschätzen lassen. Deswegen appellierten sie abschließend unter anderem an die Politik, die Entwicklung Künstlicher Intelligenz „im Sinne des Datenschutzes zu steuern“.
Mittlerweile ist auch die EU hinsichtlich der Regulierung von Künstlicher Intelligenz aktiv geworden. So legte das Europäische Parlament im vergangenen Jahr drei Vorschläge vor, um in Bezug auf Künstliche Intelligenz Aspekte wie Ethik, Haftung und geistiges Eigentum zu regeln. Dabei setzte sich das Parlament auch über das sonst übliche Initiativrecht der EU-Kommission hinweg. Diese nahm wiederum Anfang 2021 das Heft in die Hand und veröffentlichte den Entwurf eines EU Artificial Intelligence Acts – eine EU-Verordnung, die KI-Systeme insbesondere in von der EU bereits harmonisierten Bereichen regulieren soll. Dabei setzt die Kommission auf einen risikobasierten Ansatz, bei dem KI-Anwendungen dahingehend klassifiziert werden, wie hoch ihr Risiko für Gesundheit, Sicherheit und Grundrechte der Bürgerinnen und Bürger ist.
Mehr Transparenz
Von den meisten KI-Systemen wird voraussichtlich ein geringes Risiko ausgehen. Hierunter fallen etwa Suchalgorithmen und Spam-Filter. Sie werden von der Verordnung lediglich im Rahmen empfohlener Verhaltenskodizes berücksichtigt. Für weitere KI-Anwendungen, die beispielsweise in Interaktion mit natürlichen Personen treten, Emotionen erkennen oder multimediale Inhalte erstellen oder manipulieren können, sind zusätzliche Transparenzpflichten vorgesehen. Der Fokus liegt beim EU Artificial Intelligence Act (AIA) allerdings auf sogenannten Hochrisiko-KI-Systemen. Darunter fallen beispielsweise alle Anwendungen in EU-weit harmonisierten Bereichen. Auf diese KI-Anwendungen kommen unter anderem neue Sicherheits-, Registrierungs- sowie Dokumentationspflichten zu. Nach Art. 15 AIA werden zusätzliche Anforderungen hinsichtlich der Genauigkeit, Robustheit und Cybersicherheit von Hochrisiko-KI-Systemen gestellt, die gegen die Manipulation durch unbefugte Dritte geschützt sein müssen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Kein Ziel in Sicht
Ähnlich wie bei der DSGVO sollen Verstöße mit Bußgeldern in Höhe von bis zu 30 Millionen oder 6 Prozent des gesamten weltweiten Jahresumsatzes sanktioniert werden. Noch ist nicht abzusehen, wann der EU Artificial Intelligence Act Inkrafttreten wird, da er zuerst noch das Europäische Parlament und den Rat der Europäischen Union passieren muss. Zu erwartende Änderungswünsche des Parlaments sowie der Mitgliedsstaaten lassen einen langwierigen Prozess erwarten. Jedenfalls soll die Verordnung 24 Monate nach Inkrafttreten Anwendung finden. Aufgrund der Fokussierung auf Hochrisiko-KI-Systeme ist die Zahl der insofern betroffenen Systeme aktuell jedoch eher klein.
Schon jetzt wird Künstliche Intelligenz allerdings von der bestehenden Gesetzgebung reguliert – allen voran der Datenschutz-Grundverordnung. Auch in der Hambacher Erklärung wird Bezug auf die DSGVO genommen. Denn auch für KI-Systeme gilt beispielsweise die zweckgebundene Nutzung von Daten (Art. 5 Abs. 1 lit. b DSGVO) sowie das Erfordernis der Datensparsamkeit (Art. 5 Abs. 1 lit. c DSGVO). Außerdem muss auch bei KI-Anwendungen die Sicherheit der Verarbeitung nach Art. 32 DSGVO gewährleistet sein, damit unbefugter Zugang zu und Veränderung von personenbezogenen Daten unterbunden wird.
Über den Autor: Dr. Peter Katko ist Global Digital Law Leader und Rechtsanwalt für IP-Recht und Datenschutzrecht mit dem Schwerpunkt Digitalisierung, bei EY Law. Im Fokus seiner Arbeit steht die rechtskonforme Gestaltung der digitalen Transformation.