Kommentar von Dr. Niels Lutzhöft, Bird & Bird, und Isabell Neubert, Detecon InternationalWarum internationale Trainingsdaten europäischer Regulierung unterliegen
Von
Dr. Niels Lutzhöft und Isabell Neubert
6 min Lesedauer
Viele Unternehmen glauben, dass die europäischen Vorschriften nicht anwendbar sind, wenn sie ihre KI-Modelle außerhalb der EU trainieren. Doch der EU AI Act stellt klar: Bestimmte Vorgaben gelten auch dann, wenn das Training in anderen Ländern wie Singapur oder den USA erfolgt.
Die Autoren: Niels Lutzhöft ist Partner der internationalen Wirtschaftskanzlei Bird & Bird und berät als Litigator Unternehmen in den Sektoren Life Sciences und Digital Media an der Schnittstelle von Immaterialgüterrecht und sektorspezifischer Regulierung. Isabell Neubert ist Beraterin in der Abteilung Strategic Design & Innovation im Digital Engineering Center der Detecon.
(Bild: Bird & Bird; Detecon International)
Diese extraterritoriale Reichweite hat rechtliche, ethische und strategische Folgen für alle Unternehmen, die generative KI-Systeme als sogenannte General Purpose AI (GPAI) entwickeln oder Hochrisiko-Anwendungen auf Basis solcher Modelle nutzen. Das betrifft auch internationale Konzerne, die ihre Trainingsprozesse oft an externe Partner auslagern.
Urheberrechtliche Implikationen und extraterritoriale Wirkung
Neuronale Netze von KI-Modellen lernen anhand verfügbarer Datensätze von Musikwerken, journalistischen Texten, Sachbüchern, Literatur oder bildender Kunst. Eingehend diskutieren Juristen, unter welchen Voraussetzungen ein solches Webscraping in der EU als erlaubtes Text- und Data-Mining anzusehen ist. Erste Gerichtsentscheidungen deuten an: Das Training ist zumindest im Grundsatz zulässig. Klar dagegen ist: Es gibt Grenzen. Musiker, Künstler und Journalisten können ihre Werke im Netz mit einem maschinenlesbaren Opt-out versehen. Dieses müssen KI-Modellentwickler beachten und dürfen jene Werke nicht zum Training benutzen, wenn das Training in Europa stattfindet.
Der EU-Gesetzgeber will sogar noch einen Schritt weitergehen und diesen Grundsatz nicht nur auf KI-Systeme beschränken, die innerhalb der Union trainiert werden. Das Opt-out soll also mitunter auch bei einem Training in Singapur oder in den USA gelten. Das rechtspolitische Ziel liest sich im AI Act so: Der Gesetzgeber will „gleiche Wettbewerbsbedingungen für Anbieter von KI-Modellen“ sicherstellen, „unter denen kein Anbieter in der Lage sein sollte, durch die Anwendung niedrigerer Urheberrechtsstandards als in der Union einen Wettbewerbsvorteil auf dem Unionsmarkt zu erlangen“.
Unternehmen und Anwälte stellt das vor praktische Herausforderungen, denn Urheberrecht und Extraterritorialität passen nicht zusammen. Das Urheberrecht folgt dem Schutzlandprinzip, es ist also territorial begrenzt. Ob etwa verfügbare Musikwerke in Singapur rechtmäßig zum Training eines KI-Modells benutzen werden dürfen, richtet sich erstmal nach örtlichem Recht.
Stellen Künstler oder Musiker nun fest, dass ihre geschützten Werke in KI-Systemen in Deutschland in Teilen als Vorlagen für die Generierung neuer Musik verfügbar sind, können sie urheberrechtliche Ansprüche geltend machen – selbst wenn das Training im Ausland erlaubt war. Denn sie greifen damit etwas an, was in Deutschland stattfindet.
Anders sieht es in den praktisch häufigen Fällen aus: Das KI-Modell wird im Ausland in erlaubter Weise mit dort geschützten Werken trainiert; die zur Bildung der künstlichen neuronalen Netze genutzten Werke sind im System aber nicht mehr auffindbar. Hier setzt der EU-Gesetzgeber mit einem Kunstgriff an: Wer in der EU bestimmte KI-Modelle anbietet, muss eine „Strategie zur Einhaltung des Urheberrechts“ – und vor allem des Opt-out-Rechts – aufstellen. Beim Training in den USA oder Asien muss der Modellentwickler den Opt-out zwar nicht beachten. Vermarktungsfähig wird das trainierte KI-Modell in Europa aber nur, wenn es mit einer Strategie versehen ist, die aufzeigt, wie das EU-Urheberrecht und vor allem der Opt-out eingehalten wird und wurde.
Damit werden Modellentwicklung und Modellvermarktung rechtlich verknüpft. Im Patentrecht spricht man von „Product by Process“ – und genau in diese Richtung denkt auch der EU-Gesetzgeber beim Umgang mit KI-Modellen. Doch auch hier gibt es Ausnahmen: Die Pflicht zur Compliance-Strategie für das Urheberrecht gilt unmittelbar nur für KI-Modelle mit allgemeinem Verwendungszweck, aber zumindest nicht direkt für Inverkehrbringer von KI-Systemen, also von für eine bestimmte Anwendung angepassten KI-Modellen.
Unternehmen sind daher gut beraten, ihre urheberrechtliche Positionierung frühzeitig in die Entwicklungsphase zu integrieren. Das Strategiedokument ist weit mehr als ein Element regulierter Selbstregulierung – es ist mehr als „nur“ ein weiterer Bericht. Eine klar formulierte Urheberrechtsstrategie schafft die Grundlage, um Rechtsstreitigkeiten zu vermeiden oder ihnen im Ernstfall vorbereitet und mit klarer Argumentation zu begegnen.
Datenschutz, Regulierung und Ethik richtig verorten
Angesichts der extraterritorialen Wirkung des AI Acts bedarf es eines ganzheitlichen Ansatzes, der Datenschutz, Regulierung und ethische Aspekte gleichermaßen berücksichtigt. Nur so können Unternehmen die komplexen Herausforderungen bei der praktischen Umsetzung und Governance ihrer KI-Systeme bewältigen.
Die Regulierung von KI-Systemen umfasst mehrere Rechtsrahmen – allen voran der AI Act und die Datenschutz-Grundverordnung (DSGVO). Letztere legt fest, ob und wie Unternehmen personenbezogene Daten verarbeiten dürfen. Sie betrifft damit vor allem den rechtlich zulässigen Zugriff auf Trainingsdaten. Der AI Act ergänzt diese Vorschriften und verlangt qualitativ hochwertige, repräsentative und gut dokumentierte Trainingsdaten. Dabei adressiert er sowohl technische Anforderungen als auch ethische Fragestellungen entlang der gesamten KI-Entwicklung und -Nutzung. Für die Umsetzung sind spezialisierte Teams aus Legal, Compliance und Technik gefragt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Um diese Anforderungen umsetzen können, müssen Unternehmen ihre Daten transparent verarbeiten, sorgfältig dokumentieren und klare Verantwortlichkeiten definieren. Viele Organisationen trennen daher die Zuständigkeiten: Datenschutzexperten überwachen die Datenströme von der Quelle bis zum Modellinput gemäß DSGVO-Vorgaben. Parallel dazu steuern spezialisierte Legal-, Compliance- und Tech-Teams die regulatorischen Anforderungen an das KI-System. Diese Aufteilung ermöglicht es, beide Rechtsrahmen effektiv umzusetzen und gleichzeitig technische Innovation voranzutreiben.
Gerade bei sensiblen Anwendungen, etwa Kreditwürdigkeitsprüfungen oder Personalprozessen, ergänzen Ethikgremien die juristische und technische Perspektive. Während der Datenschutz die rechtliche Zulässigkeit prüft und Tech-Teams die technische Machbarkeit bewerten, beurteilen Ethik-Boards die gesellschaftliche Verantwortbarkeit. Sie berücksichtigen dabei Aspekte wie Fairness, Unternehmenswerte und den breiteren gesellschaftlichen Kontext.
Erfolgreiche KI-Compliance durch systematische Governance
Der AI Act erfordert von Unternehmen einen umfassenden und dynamischen Compliance-Rahmen. Dieser muss ethische, regulatorische und unternehmensinterne Anforderungen systematisch zusammenführen. Ein vierstufiges Vorgehen bildet die Grundlage für den Aufbau einer vertrauenswürdigen KI-Governance:
1. Erfassung und Kategorisierung
Am Anfang stehen die sorgfältige Erfassung und Kategorisierung aller vorhandenen und geplanten KI-Systeme in Unternehmen. Diese müssen dabei zunächst ihre relevanten Anwendungsbereiche identifizieren und analysieren, welche Stakeholder von den Systemen betroffen sind. Ebenso wichtig ist die präzise Kartierung aller organisatorischen Schnittstellen. Nur so entsteht ein vollständiges Bild der unternehmensweiten KI-Landschaft, das auch die Verantwortlichkeiten aller Beteiligten klar verortet.
2. Differenzierte Risikoeinschätzung
Im zweiten Schritt analysieren Unternehmen systematisch die Risiken ihrer KI-Systeme: Wie wirken sie sich auf Geschäftsprozesse aus? Welche gesellschaftlichen Folgen können entstehen? Wo braucht es mehr Kontrolle und Dokumentation? Diese Analyse zeigt, welche Bereiche besonders kritisch sind und wo ethische Fragen, Transparenz oder verstärkte Kontrollen eine Rolle spielen. Daraus ergibt sich eine klare Prioritätenliste für den Aufbau der Governance.
3. Entwicklung des KI-Governance-Frameworks
Das Herzstück bildet ein unternehmensweites Regelwerk für KI. Es legt fest, nach welchen Prinzipien Teams KI einsetzen dürfen, wer was verantwortet und wie Kontrollen ablaufen. Es verzahnt diese neuen Vorgaben mit bestehenden Compliance-Strukturen. Dabei erfüllt das Framework zwei zentrale Anforderungen: Es unterstützt Teams in ihrer täglichen Arbeit und passt sich flexibel an technische und rechtliche Entwicklungen an.
4. Systematische Verankerung in Unternehmensstrukturen
Die konkrete Umsetzung erfolgt durch die systematische Verankerung des Frameworks in die unternehmensweiten Strukturen. Ein zentraler Informations- und Steuerungshub koordiniert dabei alle Aktivitäten. Rollenspezifische Schulungsprogramme und kontinuierliche Awareness-Formate sorgen dafür, dass alle Beteiligten ihre Aufgaben kennen und wahrnehmen. Standardisierte Berichts- und Prüfprozesse stellen die Einhaltung der Vorgaben im Alltag sicher.
Diese systematische Herangehensweise schafft einen Rahmen, der mitwächst und aus Erfahrungen lernt. Er macht KI-Anwendungen nachvollziehbar und fördert die gesellschaftliche Akzeptanz. So können Unternehmen sowohl die besonderen Anforderungen an GPAI-Modelle als auch die strengen Vorgaben für Hochrisiko-Anwendungen souverän meistern.
Zwischen regulatorischer Pflicht und strategischer Chance
Die extraterritoriale Wirkung des AI Act verändert den Umgang mit KI grundlegend. Sie verpflichtet Unternehmen, technologische Entwicklungen systematisch mit rechtlichen und ethischen Anforderungen zu verbinden – über Landes- und Systemgrenzen hinweg.
Unternehmen, die jetzt handeln und klare Strukturen aufbauen, profitieren gleich doppelt: Sie agieren rechtssicher und stärken ihre Position im globalen Wettbewerb. Transparente Prozesse, strikte Compliance und eine ganzheitliche Governance-Strategie schaffen die Grundlage für vertrauenswürdige und skalierbare KI-Lösungen. So entstehen Produkte und Dienstleistungen, die regulatorische Anforderungen erfüllen, gesellschaftliche Akzeptanz finden und wirtschaftlichen Erfolg versprechen.