Kommentar von Dr. Niels Lutzhöft, Bird & Bird, und Isabell Neubert, Detecon International Warum internationale Trainingsdaten europäischer Regulierung unterliegen

Von Dr. Niels Lutzhöft und Isabell Neubert 6 min Lesedauer

Anbieter zum Thema

Viele Unternehmen glauben, dass die europäischen Vorschriften nicht anwendbar sind, wenn sie ihre KI-Modelle außerhalb der EU trainieren. Doch der EU AI Act stellt klar: Bestimmte Vorgaben gelten auch dann, wenn das Training in anderen Ländern wie Singapur oder den USA erfolgt.

Die Autoren: Niels Lutzhöft ist Partner der internationalen Wirtschaftskanzlei Bird & Bird und berät als Litigator Unternehmen in den Sektoren Life Sciences und Digital Media an der Schnittstelle von Immaterialgüterrecht und sektorspezifischer Regulierung. Isabell Neubert ist Beraterin in der Abteilung Strategic Design & Innovation im Digital Engineering Center der Detecon. (Bild:   Bird & Bird; Detecon International)
Die Autoren: Niels Lutzhöft ist Partner der internationalen Wirtschaftskanzlei Bird & Bird und berät als Litigator Unternehmen in den Sektoren Life Sciences und Digital Media an der Schnittstelle von Immaterialgüterrecht und sektorspezifischer Regulierung. Isabell Neubert ist Beraterin in der Abteilung Strategic Design & Innovation im Digital Engineering Center der Detecon.
(Bild: Bird & Bird; Detecon International)

Diese extraterritoriale Reichweite hat rechtliche, ethische und strategische Folgen für alle Unternehmen, die generative KI-Systeme als sogenannte General Purpose AI (GPAI) entwickeln oder Hochrisiko-Anwendungen auf Basis solcher Modelle nutzen. Das betrifft auch internationale Konzerne, die ihre Trainingsprozesse oft an externe Partner auslagern.

Urheberrechtliche Implikationen und extraterritoriale Wirkung

Neuronale Netze von KI-Modellen lernen anhand verfügbarer Datensätze von Musikwerken, journalistischen Texten, Sachbüchern, Literatur oder bildender Kunst. Eingehend diskutieren Juristen, unter welchen Voraussetzungen ein solches Webscraping in der EU als erlaubtes Text- und Data-Mining anzusehen ist. Erste Gerichtsentscheidungen deuten an: Das Training ist zumindest im Grundsatz zulässig. Klar dagegen ist: Es gibt Grenzen. Musiker, Künstler und Journalisten können ihre Werke im Netz mit einem maschinenlesbaren Opt-out versehen. Dieses müssen KI-Modellentwickler beachten und dürfen jene Werke nicht zum Training benutzen, wenn das Training in Europa stattfindet.

Der EU-Gesetzgeber will sogar noch einen Schritt weitergehen und diesen Grundsatz nicht nur auf KI-Systeme beschränken, die innerhalb der Union trainiert werden. Das Opt-out soll also mitunter auch bei einem Training in Singapur oder in den USA gelten. Das rechtspolitische Ziel liest sich im AI Act so: Der Gesetzgeber will „gleiche Wettbewerbsbedingungen für Anbieter von KI-Modellen“ sicherstellen, „unter denen kein Anbieter in der Lage sein sollte, durch die Anwendung niedrigerer Urheberrechtsstandards als in der Union einen Wettbewerbsvorteil auf dem Unionsmarkt zu erlangen“.

Unternehmen und Anwälte stellt das vor praktische Herausforderungen, denn Urheberrecht und Extraterritorialität passen nicht zusammen. Das Urheberrecht folgt dem Schutzlandprinzip, es ist also territorial begrenzt. Ob etwa verfügbare Musikwerke in Singapur rechtmäßig zum Training eines KI-Modells benutzen werden dürfen, richtet sich erstmal nach örtlichem Recht.

Stellen Künstler oder Musiker nun fest, dass ihre geschützten Werke in KI-Systemen in Deutschland in Teilen als Vorlagen für die Generierung neuer Musik verfügbar sind, können sie urheberrechtliche Ansprüche geltend machen – selbst wenn das Training im Ausland erlaubt war. Denn sie greifen damit etwas an, was in Deutschland stattfindet.

Praktische Herausforderungen und Lösungsansätze

Anders sieht es in den praktisch häufigen Fällen aus: Das KI-Modell wird im Ausland in erlaubter Weise mit dort geschützten Werken trainiert; die zur Bildung der künstlichen neuronalen Netze genutzten Werke sind im System aber nicht mehr auffindbar. Hier setzt der EU-Gesetzgeber mit einem Kunstgriff an: Wer in der EU bestimmte KI-Modelle anbietet, muss eine „Strategie zur Einhaltung des Urheberrechts“ – und vor allem des Opt-out-Rechts – aufstellen. Beim Training in den USA oder Asien muss der Modellentwickler den Opt-out zwar nicht beachten. Vermarktungsfähig wird das trainierte KI-Modell in Europa aber nur, wenn es mit einer Strategie versehen ist, die aufzeigt, wie das EU-Urheberrecht und vor allem der Opt-out eingehalten wird und wurde.

Damit werden Modellentwicklung und Modellvermarktung rechtlich verknüpft. Im Patentrecht spricht man von „Product by Process“ – und genau in diese Richtung denkt auch der EU-Gesetzgeber beim Umgang mit KI-Modellen. Doch auch hier gibt es Ausnahmen: Die Pflicht zur Compliance-Strategie für das Urheberrecht gilt unmittelbar nur für KI-Modelle mit allgemeinem Verwendungszweck, aber zumindest nicht direkt für Inverkehrbringer von KI-Systemen, also von für eine bestimmte Anwendung angepassten KI-Modellen.

Unternehmen sind daher gut beraten, ihre urheberrechtliche Positionierung frühzeitig in die Entwicklungsphase zu integrieren. Das Strategiedokument ist weit mehr als ein Element regulierter Selbstregulierung – es ist mehr als „nur“ ein weiterer Bericht. Eine klar formulierte Urheberrechtsstrategie schafft die Grundlage, um Rechtsstreitigkeiten zu vermeiden oder ihnen im Ernstfall vorbereitet und mit klarer Argumentation zu begegnen.

Datenschutz, Regulierung und Ethik richtig verorten

Angesichts der extraterritorialen Wirkung des AI Acts bedarf es eines ganzheitlichen Ansatzes, der Datenschutz, Regulierung und ethische Aspekte gleichermaßen berücksichtigt. Nur so können Unternehmen die komplexen Herausforderungen bei der praktischen Umsetzung und Governance ihrer KI-Systeme bewältigen.

Die Regulierung von KI-Systemen umfasst mehrere Rechtsrahmen – allen voran der AI Act und die Datenschutz-Grundverordnung (DSGVO). Letztere legt fest, ob und wie Unternehmen personenbezogene Daten verarbeiten dürfen. Sie betrifft damit vor allem den rechtlich zulässigen Zugriff auf Trainingsdaten. Der AI Act ergänzt diese Vorschriften und verlangt qualitativ hochwertige, repräsentative und gut dokumentierte Trainingsdaten. Dabei adressiert er sowohl technische Anforderungen als auch ethische Fragestellungen entlang der gesamten KI-Entwicklung und -Nutzung. Für die Umsetzung sind spezialisierte Teams aus Legal, Compliance und Technik gefragt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Um diese Anforderungen umsetzen können, müssen Unternehmen ihre Daten transparent verarbeiten, sorgfältig dokumentieren und klare Verantwortlichkeiten definieren. Viele Organisationen trennen daher die Zuständigkeiten: Datenschutzexperten überwachen die Datenströme von der Quelle bis zum Modellinput gemäß DSGVO-Vorgaben. Parallel dazu steuern spezialisierte Legal-, Compliance- und Tech-Teams die regulatorischen Anforderungen an das KI-System. Diese Aufteilung ermöglicht es, beide Rechtsrahmen effektiv umzusetzen und gleichzeitig technische Innovation voranzutreiben.

Gerade bei sensiblen Anwendungen, etwa Kreditwürdigkeitsprüfungen oder Personalprozessen, ergänzen Ethikgremien die juristische und technische Perspektive. Während der Datenschutz die rechtliche Zulässigkeit prüft und Tech-Teams die technische Machbarkeit bewerten, beurteilen Ethik-Boards die gesellschaftliche Verantwortbarkeit. Sie berücksichtigen dabei Aspekte wie Fairness, Unternehmenswerte und den breiteren gesellschaftlichen Kontext.

Erfolgreiche KI-Compliance durch systematische Governance

Der AI Act erfordert von Unternehmen einen umfassenden und dynamischen Compliance-Rahmen. Dieser muss ethische, regulatorische und unternehmensinterne Anforderungen systematisch zusammenführen. Ein vierstufiges Vorgehen bildet die Grundlage für den Aufbau einer vertrauenswürdigen KI-Governance:

1. Erfassung und Kategorisierung

Am Anfang stehen die sorgfältige Erfassung und Kategorisierung aller vorhandenen und geplanten KI-Systeme in Unternehmen. Diese müssen dabei zunächst ihre relevanten Anwendungsbereiche identifizieren und analysieren, welche Stakeholder von den Systemen betroffen sind. Ebenso wichtig ist die präzise Kartierung aller organisatorischen Schnittstellen. Nur so entsteht ein vollständiges Bild der unternehmensweiten KI-Landschaft, das auch die Verantwortlichkeiten aller Beteiligten klar verortet.

2. Differenzierte Risikoeinschätzung

Im zweiten Schritt analysieren Unternehmen systematisch die Risiken ihrer KI-Systeme: Wie wirken sie sich auf Geschäftsprozesse aus? Welche gesellschaftlichen Folgen können entstehen? Wo braucht es mehr Kontrolle und Dokumentation? Diese Analyse zeigt, welche Bereiche besonders kritisch sind und wo ethische Fragen, Transparenz oder verstärkte Kontrollen eine Rolle spielen. Daraus ergibt sich eine klare Prioritätenliste für den Aufbau der Governance.

3. Entwicklung des KI-Governance-Frameworks

Das Herzstück bildet ein unternehmensweites Regelwerk für KI. Es legt fest, nach welchen Prinzipien Teams KI einsetzen dürfen, wer was verantwortet und wie Kontrollen ablaufen. Es verzahnt diese neuen Vorgaben mit bestehenden Compliance-Strukturen. Dabei erfüllt das Framework zwei zentrale Anforderungen: Es unterstützt Teams in ihrer täglichen Arbeit und passt sich flexibel an technische und rechtliche Entwicklungen an.

4. Systematische Verankerung in Unternehmensstrukturen

Die konkrete Umsetzung erfolgt durch die systematische Verankerung des Frameworks in die unternehmensweiten Strukturen. Ein zentraler Informations- und Steuerungshub koordiniert dabei alle Aktivitäten. Rollenspezifische Schulungsprogramme und kontinuierliche Awareness-Formate sorgen dafür, dass alle Beteiligten ihre Aufgaben kennen und wahrnehmen. Standardisierte Berichts- und Prüfprozesse stellen die Einhaltung der Vorgaben im Alltag sicher.

Diese systematische Herangehensweise schafft einen Rahmen, der mitwächst und aus Erfahrungen lernt. Er macht KI-Anwendungen nachvollziehbar und fördert die gesellschaftliche Akzeptanz. So können Unternehmen sowohl die besonderen Anforderungen an GPAI-Modelle als auch die strengen Vorgaben für Hochrisiko-Anwendungen souverän meistern.

Zwischen regulatorischer Pflicht und strategischer Chance

Die extraterritoriale Wirkung des AI Act verändert den Umgang mit KI grundlegend. Sie verpflichtet Unternehmen, technologische Entwicklungen systematisch mit rechtlichen und ethischen Anforderungen zu verbinden – über Landes- und Systemgrenzen hinweg.

Unternehmen, die jetzt handeln und klare Strukturen aufbauen, profitieren gleich doppelt: Sie agieren rechtssicher und stärken ihre Position im globalen Wettbewerb. Transparente Prozesse, strikte Compliance und eine ganzheitliche Governance-Strategie schaffen die Grundlage für vertrauenswürdige und skalierbare KI-Lösungen. So entstehen Produkte und Dienstleistungen, die regulatorische Anforderungen erfüllen, gesellschaftliche Akzeptanz finden und wirtschaftlichen Erfolg versprechen.

Artikelfiles und Artikellinks

(ID:50636874)