Wie bringt man Innovation und Regulierung zusammen, ohne eine Seite zu bremsen? KI-Reallabore zeigen den Weg: In geschützten Testumgebungen lernen Entwickler und Behörden gemeinsam, wie aus abstrakten Gesetzen praxistaugliche Lösungen werden – ein Plädoyer für die richtige Balance zwischen technologischem Fortschritt, Verantwortung und gemeinsamen Lernen.
Die Autorin: Dr. Frauke Goll ist Geschäftsführerin der appliedAI Institute for Europe gGmbH
(Bild: appliedAI Institute for Europe gGmbH)
Wer sich mit Künstlicher Intelligenz (KI) beschäftigt, weiß: Je nach Anwendung handelt es sich um mächtige Werkzeuge mit enormen Fähigkeiten, die jedoch auch eine präzise Steuerung erfordern. Genau aus diesem Grund ist es bedeutend, dass sich neue KI-Anwendungen je nach Risikoklasse den Regulierungen von Behörden unterwerfen. Ein Beispiel: Das Start-up Avisé Labs entwickelt eine KI zur Sepsis-Früherkennung auf Intensivstationen. Technisch brillant – aber darf das Unternehmen Patientendaten verarbeiten? Wer haftet, wenn das Tool einen lebensgefährlichen Zustand übersieht?
Um Antworten auf Fragen wie diese zu finden, ist ein gemeinsames Lernen von Entwicklern und Behörden in geschützten Umgebungen sinnvoll – in sogenannten KI-Reallaboren. Im Fall von Avisé Labs führte dieses Vorgehen zu konkreten Empfehlungen, wie der Rechtsrahmen im Gesundheitswesen weiterentwickelt werden sollte, festgehalten im Policy Brief: appliedAI Institute, Mai 2025.
Gerade wenn Risiken noch nicht sicher abgeschätzt werden können, wie bei sich schnell entwickelnden KI-Technologien, spielt Vertrauenswürdigkeit eine besondere Rolle. Gleichzeitig ist es jedoch genau in diesen Fällen wichtig, Innovationen nicht zu bremsen, sondern vielmehr einen verantwortungsvollen Umgang mit neuen Tools, Produkten und Lösungen zu fördern. Verantwortung bezieht sich hier vor allem auf Sicherheit sowohl auf der Entwicklungs- als auch auf der Anwenderseite. Deshalb brauchen innovative Technologien wandlungsfähige Rahmenbedingungen. Diese können am besten durch gemeinsames Lernen geschaffen werden. Daher liegt es nahe, dass sich beide Parteien – Entwickler und Behörden – an einen Tisch setzen, sich abstimmen und sowohl ihre Tools als auch Regelwerke erproben, bevor sie in die breite Anwendung gehen.
Jetzt ist die Sache allerdings – man ahnt es – komplex. KI ist es. Regulierungen sind es. Deshalb reicht es nicht, sich nur an einen Tisch zu setzen. Vielmehr braucht es Experimentierräume mit klaren Regeln, um gemeinsames Lernen zielgerichtet zu ermöglichen. KI-Reallabore schaffen dafür kontrollierte Testumgebungen, in denen z. B. das Avisé-Labs-Team seine Sepsis-KI unter realen Bedingungen erproben kann. Gleichzeitig lernen Aufsichts- und Datenschutzbehörden verstehen, wie ihre Regeln in der Praxis greifen, wo sie eventuell zu weit gehen oder noch lückenhaft sind. KI-Reallabore, international auch als „AI Regulatory Sandboxes“ bekannt, unterscheiden sich von klassischen Compliance-Instrumenten. Sie zielen nicht nur auf Risikominimierung, sondern auf Erkenntnisgewinn ab und machen aus abstrakten Gesetzen konkrete Praxiserfahrungen.
Komplexe Rechtsfragen lösen
Das Energie-Start-up Katulu macht das besonders deutlich. Dessen KI-System für die Vorhersage von Energiebedarfen basiert auf dezentralem Lernen. Das System analysiert Daten aus verschiedenen Quellen, ohne diese zentral zu sammeln. Das macht es zum einen effizienter und datenschutzfreundlicher. Zum anderen kann es bei solchen Systemen aber juristisch schnell kompliziert werden. Der Reallabor-Ansatz hilft Katulu dabei, die komplexen Rechtsfragen aus Energierecht, Datenschutz und KI-Verordnung zu lösen.
Interdisziplinäre Teams als Erfolgsfaktor
Ob Sepsis-Früherkennung oder Energieprognose – KI-Reallabore stellen rechtliche Fragen auf den Prüfstand. KI-Regulierung jedoch allein juristisch angehen zu wollen, wäre zu kurz gefasst. Doch worauf kommt es bei der Gestaltung von KI-Reallaboren noch an? Ein entscheidender Erfolgsfaktor ist die interdisziplinäre Herangehensweise. KI-Regulierung ist ein Knoten, den Juristen, Techniker, Ethiker und Praktiker aus den betroffenen Bereichen gemeinsam lösen müssen.
Genau das passiert in KI-Reallaboren: Interdisziplinäre Teams bewerten gemeinsam technische Funktionsweisen, gesellschaftliche Auswirkungen und rechtliche Rahmenbedingungen. Nur wenn jede dieser Gruppen ihre Perspektive einbringt, kann ein KI-Reallabor seine Wirkung entfalten. Zugleich müssen die Zuständigkeiten eindeutig geklärt sein: Wer entscheidet was? Zudem können nur themenspezifisch strukturierte Reallabore tief genug in die jeweilige Branche einsteigen: Medizin-KI braucht andere Regeln als Energie-KI.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Wissen teilen, Wirkung skalieren
Andere Länder machen vor, wie es geht. Das norwegische Datenschutz-Sandbox-Projekt „Datatilsynet“ berät Unternehmen kostenlos bei KI-Projekten. Im Gegenzug legen diese ihre Projekterfahrungen vollständig offen, sodass daraus funktionierende Leitlinien europaweit für andere Organisationen entwickelt werden können. Das Projekt demonstriert anschaulich den größten Mehrwert von KI-Reallaboren: kollektiver Lerngewinn.
Das Prinzip dahinter: Aus einzelnen Praxisfällen wird regulatorisches Wissen für die Öffentlichkeit. Dafür müssen die Beteiligten ihre Erkenntnisse systematisch dokumentieren, aufbereiten und öffentlich zugänglich machen. Diese Aufgabe übernehmen Exit-Reports nach Projektende, jährliche Berichte an europäische Institutionen und ein zentrales Informationsportal, das Reallabor-Ergebnisse EU-weit sichtbar macht. Die Ergebnisse dieser systematischen Dokumentation: grenzübergreifendes Lernen und schrittweise Harmonisierung regulatorischer Anforderungen.
Reallabore testen Regulatorik weltweit
Auch außerhalb Europas entstehen ähnliche Initiativen: In Singapur betreibt eine Behörde namens Infocomm Media Development Authority (IMDA) eine AI Sandbox, die sich gezielt auf die Probleme einzelner Branchen konzentriert und bereits praktische Leitfäden entwickelt hat. Das Vereinigte Königreich testet Regulatorik für KI-basierte Medizinprodukte: Das Pilotprojekt heißt „AI Airlock“ und wurde von der Medicines and Healthcare products Regulatory Agency (MHRA) ins Leben gerufen. Diese internationalen Erfahrungen zeigen: Reallabore sind kein europäischer Sonderweg. Im Gegenteil: Als global anschlussfähige Innovationsplattformen dienen sie dem weltweiten Erfahrungsaustausch mit hohem Lernpotenzial.
Europa am Scheideweg
Europa steht vor einer strategischen Entscheidung: Wollen wir KI-Systeme nur kontrollieren – oder sie mutig mitgestalten? KI-Reallabore geben die Antwort. Damit ihr Potenzial nicht verpufft, braucht es jetzt entschlossenes Handeln, denn Unternehmen brauchen gesetzgeberische Klarheit. Die Erfahrungen aus Norwegen, Singapur und Großbritannien zeigen: Reallabore funktionieren – wenn sie richtig gemacht werden. Der Policy Brief von appliedAI macht deutlich: Die Wirksamkeit von KI-Reallaboren hängt stark von (politischem) Gestaltungswillen und strategischem Umsetzungsvermögen ab.
Regulierung muss gestalten, nicht bremsen
Dafür müssen Behörden die Ressourcen schaffen: qualifizierte Mitarbeiter, Geld und organisatorische Strukturen, damit sie KI-Reallabore ernsthaft betreiben können. Die Haltung muss sein: Regulierung ist keine Bremse, sondern ein lernfähiges Instrument zur aktiven Gestaltung. Gezielte Ermöglichung statt Überregulierung lautet das Credo. Dafür müssen Reallabore von Anfang an strategisch gedacht werden. Sie brauchen klare Ziele, interdisziplinäre Teams und ein lernorientiertes Mindset. Sie müssen attraktiv für Innovatoren und anschlussfähig für das Rechtssystem sein.
Wenn die Erkenntnisse systematisch geteilt werden, können alle Unternehmen davon profitieren – und unklare Rechtsfragen werden geklärt. Das gibt Unternehmen Planungssicherheit und Behörden die nötigen Werkzeuge zum Handeln. KI-Reallabore sind damit das zentrale Werkzeug für gemeinsames Lernen und eine zukunftsfähige KI-Regulierung. So schaffen sie die Grundlage für eine neue Regulierungskultur in Europa – eine politische Notwendigkeit im Zeitalter dynamischer KI-Systeme.