Kommentar von Marian Gläser, Mitgründer und CEO Brighter AI Der AI Act kann Innovationen ausbremsen
Anbieter zum Thema
Der AI Act der Europäischen Kommission soll den Einsatz von Künstlicher Intelligenz regeln. Doch der Entwurf kann Innovationen gefährden, da er den Schwerpunkt falsch setzt – auf Technologie statt auf Anwendungsbereiche.

Im Moment sorgt eine sehr spezielle Anwendung der Künstlichen Intelligenz (KI) für Diskussionen. Gemeint ist natürlich ChatGPT. Diese dialogorientierte KI-Anwendung zeigt deutlich die Fortschritte der vergangenen 15 Jahre. Ein flüchtiger Leser der vom System erzeugten Texte wird kaum bemerken, dass hier eine Maschine am Werk ist. Zumindest in Deutschland richtete sich die Diskussion schnell auf ethische Probleme wie Mogeleien bei Hausaufgaben in Schule und Studium. In solchen Situationen ist der Ruf nach Regulierung nicht fern – niemand soll KI-Anwendungen für illegale Zwecke nutzen.
Ein europäischer Rechtsrahmen für KI
Diese Überlegungen gibt es auch in der Europäischen Kommission. Sie arbeitet bereits seit einiger Zeit an dem sogenannten AI Act, der einen gemeinsamen Rechtsrahmen für Künstliche Intelligenz schaffen soll. Ziel der EU ist es, eine vertrauenswürdige KI zu fördern. Damit soll sichergestellt werden, dass die Anwendungen sicher sind und die Grundrechte und Werte der Staaten in der Europäischen Union respektiert werden.
Eine entscheidende Frage ist natürlich, was der AI Act unter Künstlicher Intelligenz versteht. Der Entwurf der EU-Kommission fasst den Begriff eher weit, während der EU-Rat eine etwas engere Definition fordert, bei der sich Künstliche Intelligenz auf autonome Systeme und maschinelles Lernen begrenzt. Dadurch sind einige Anwendungen ausgeschlossen, beispielsweise Software zur statistischen Betrugserkennung.
Eine interessante Besonderheit des Entwurfs: Der Einsatz von KI-Systemen zu militärischen Zwecken liegt außerhalb des Geltungsbereichs des AI Acts. Zudem möchte der EU-Rat diesen Sonderstatus generell auf Fragen der nationalen Sicherheit ausweiten. Diese Regelung ist umstritten, da auf dieser Basis biometrische Massenüberwachung durch die Hintertür eingeführt werden könnte.
Risikokategorien für KI-Anwendungen
Konkret basiert der AI Act auf einer Risikoeinschätzung, damit der Einsatz von KI-Systemen keine negativen Auswirkungen auf Sicherheit, Gesundheit und die Grundrechte der Menschen hat. Dafür teilt er Anwendungen von Künstlicher Intelligenz in drei Risikokategorien ein:
Verboten: Diese Kategorie betrifft alle KI-Anwendungen, die den Werten der EU widersprechen, beispielsweise Manipulation der Psyche, Ausbeutung von Kindern oder behinderten Personen sowie Social Scoring und Anwendungen für biometrische Erkennung in Echtzeit, die im öffentlichen Raum für Strafverfolgung eingesetzt wird.
Hohes Risiko: Zu dieser Kategorie gehören Anwendungen zur Bewertung der Würdigkeit von Verbrauchern, der Einstufung von Stellenbewerbern oder Systeme für die Justizverwaltung. Zurzeit arbeitet die EU an einer Liste mit Arten von Hochrisiko-Anwendungen, die bei Inkrafttreten der Verordnung veröffentlicht werden soll und als Grundlage für die regulatorischen Maßnahmen gilt.
Geringes Risiko: Dazu gehören Technologien wie KI-Chatbots, Computerspiele und die meisten anderen Formen der KI. Diese Anwendungen sollten größtenteils unreguliert bleiben. Es wird in erster Linie eine Verpflichtung zur Transparenz geben, sodass die Anwenderinnen und Anwender wissen, dass sie mit einer KI interagieren.
Für die Hochrisiko-Kategorie soll eine Datenbank aufgebaut werden, in der alle innerhalb der EU angebotenen Systeme dieser Kategorie registriert werden. Sie soll allerdings nach bisherigem Stand keine Informationen dazu enthalten, wer die Systeme einsetzt oder zu welchem Zweck sie genutzt werden. Zudem sieht die Verordnung Bußgelder in beträchtlicher Höhe bei einem Verstoß vor – geplant sind bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes.
Eingeschränkte Antwort auf die Herausforderungen
Die Idee eines derartigen KI-Gesetzes mit genauen Regeln und deutlichen Sanktionen ist ein positiver Schritt. Denn Künstliche Intelligenz ist von großer Bedeutung für unsere Zukunft und besitzt wie die meisten Technologien auch das Potenzial zu negativen Anwendungen.
Doch der AI Act ist weit davon entfernt, eine vollständige Antwort auf die Herausforderungen der Zukunft zu sein. Im Gegenteil, aus meiner Sicht ist es ein Fehler, das Gesetz in seiner jetzigen Form zu verabschieden. Es gibt darin eine zu starke Konzentration auf risikoreiche Anwendungen, die gleichzeitig zu einer Unter- und einer Überregulierung führen könnte.
Zunächst einmal fällt auf, dass präzise Definitionen und eine genaue Festlegung des Geltungsbereichs fehlen. Hierdurch besteht die Gefahr, dass der AI Act derzeit unbekannte Arten von künstlicher Intelligenz nicht angemessen abdeckt. Darüber hinaus können Unternehmen die Vorschriften durch kreative Lösungen umgehen. Weiterhin ist es denkbar, dass KI-Technologien ohne besondere Risiken unter das Gesetz fallen und dadurch übermäßig kontrolliert und eingeschränkt werden. Damit werden letztlich Innovationen gehemmt.
Der AI Act kann Innovationen ausbremsen
Nach dem derzeitigen Stand der Dinge verbietet das KI-Gesetz die biometrische Identifizierung in Echtzeit in öffentlich zugänglichen Räumen zum Zweck der Strafverfolgung, sofern nicht bestimmte, begrenzte Ausnahmen gelten. Die Bürgerrechtsorganisationen „European Digital Rights EDRi“ hat strengere Regeln vorgeschlagen, unter anderem ein Verbot der biometrischen Identifizierung ohne Ausnahmen. Zudem fordert die NGO ein generelles Verbot der automatischen Erkennung menschlicher Merkmale.
Als CEO eines KI-Start-ups behalte ich die Entwicklung natürlich genau im Auge. Unsere Technologie der Deep Natural Anonymization (DNAT) gehört zu einer Anwendung der sogenannten Computer Vision, also der Bilderkennung mit KI-Verfahren. Konkret geht es darum, Gesichter von Personen in Fotos und Videos zu anonymisieren. Sie werden dafür durch künstlich erzeugte Gesichter ersetzt, die weder von KI-Gesichtserkennung noch von Menschen als bestimmten Personen identifiziert werden können.
Diese Technologie bedroht die europäischen Werte nicht, sondern unterstützt sie vielmehr. Daher sehe ich keine unmittelbaren Auswirkungen. Dennoch könnte die endgültige Version des AI-Act auch für uns gelten – mit der Gefahr, Innovationen im Bereich des Datenschutzes zu bremsen.
Mein Fazit: Der AI Act ist vom Geist des Gesetzes her richtig, aber die konkrete Umsetzung ist fragwürdig. Vermutlich klingt es ein wenig seltsam, aber aus meiner Sicht wäre es besser, KI nicht konkret im KI-Gesetz zu erwähnen. Das Gesetz sollte die Technologie von den Anwendungsfällen trennen und letztere regulieren. Die EU sollte also nicht bestimmte Varianten von Künstlicher Intelligenz regulieren, sondern lediglich bestimmte, möglichst konkret formulierte Einsatzgebiete. Dadurch wird die Weiterentwicklung von KI-Systemen nicht behindert und die Innovationsfähigkeit der Wirtschaft bleibt erhalten.
Über den Autor: Marian ist der CEO von Brighter AI und verantwortlich für die Steuerung der Geschäftsstrategie, die technologische Ausrichtung und die Beziehungen zu Investoren. Bevor er das Unternehmen 2017 gründete, arbeitete er als Intrapreneur für den deutschen Automobilzulieferer HELLA. Marian hat einen Master-Abschluss in IT Management & Consulting von der Universität Hamburg und arbeitete zuvor als Softwareentwickler beim Techstars-Startup Occipital Inc. in San Francisco. Er war als Berater für Unternehmen wie Lufthansa Systems tätig und arbeitete als IT-Projektleiter für die Digitalagentur SinnerSchrader. Marian ist aktives Mitglied im KI Bundesverband, wo er Sprecher für Datenschutz ist. Außerdem ist er Sprecher für Künstliche Intelligenz im Bundesverband Deutsche Start-ups (BVDS).
(ID:49433949)