EU AI Act Europaabgeordnete legen No-Go-Areas für die KI-Nutzung fest
Anbieter zum Thema
Das Europäische Parlament in Straßburg berät derzeit über den AI Act, um das KI-Gesetz dieses Jahr der EU-Kommission vorzulegen. In einem Gespräch wurden die auseinanderklaffenden Auffassungen von KI und die Ansichten über deren verbotswürdige Anwendungen deutlich.

In einer Online-Konferenz legten Abgeordnete der CDU/EVP, der Grünen, der Linken und der FDP ihre Ansichten dar, was sie unter Künstlicher Intelligenz (KI, Machine Learning) verstehen. Der Prozess der Meinungsbildung nähert sich bereits festgelegten Positionen der einzelnen, die sich einer Abstimmung im Parlament stellen könnten. Sobald die Abstimmung vorüber ist, kann der Gesetzentwurf der EU-Kommission vorgelegt werden.
Schon bei der Definition von KI tun sich die Parteien bzw. ihre Abgeordneten schwer. Die Definition soll weder ein zu enges Korsett im Hinblick auf Innovation und Wettbewerbsfähigkeit sein noch die Gefahren verharmlosen, die aus einem weitgefassten KI-Begriff bzw. -Standard erwachsen könnten, etwa im Bereich des Cybercrime. Auch ChatGPT fällt in den Bereich von KI.
Nach Ansicht des CDU/EVP-Abgeordneten Axel Voss handelt es sich bei KI-Strukturen mitunter um Hochrisiko-Infrastruktur. Eine besondere Bedeutung erlangen dabei „Sandboxes“, also Real-Labore, in denen KI-Modelle und -Algorithmen erprobt werden. Seiner Ansicht nach müssen solche Modelle im Hinblick auf Fairness und Gender ausgewogen trainiert werden.
Für Svenja Hahn (FDP) ist die KI-Definition noch offen, aber es gebe bereits eine von der OSZE. Die FDP will bekanntermaßen Europa zu einem attraktiven Industrie- und Forschungsstandort machen und daher KI für Innovationen nutzbar machen. „Der AI Act muss ein Booster für Innovation made in Europe werden.“ Allerdings gebe es einen sogenannten „Blackbox-Effekt“: Die KI-Modelle und -Algorithmen seien ja selbstlernend, aber innerhalb einer Blackbox nicht erklärbar. Daher sei diese Transparenz vordringlich. ChatGPT sei akzeptabel, aber auch selbstlernend. Doch es handle sich eben um ein Stück Technik, und worauf es ankomme, seien deren Anwendungsformen. Diese könnten bzw. sollten in Reallaboren, also Sandboxes, erprobt werden.
Hochrisiko-Anwendungen
Noch schwieriger, aber umso interessanter, wird es bei den vielfältigen Anwendungen von KI. Vielfach sind sie bereits zum Hochrisikobereich deklariert worden, und es sind hier die klarsten Unterschiede zwischen den parteilichen Ansichten und Position zu beobachten. Vielfach wurde von „No-Go-Anwendungen“ gesprochen.
Cornelia Ernst, Die Linke, sagte: „Schon jetzt sind Menschen, die in der EU Schutz suchen, die ‚Versuchskaninchen‘ für verschiedenste Technologien wie scannende Drohnen oder Lügendetektoren. Bei der Regulierung von Künstlicher Intelligenz sollten die Grundrechte aller Menschen im Kontext der Anwendung von Künstlicher Intelligenz geschützt werden.“
:quality(80):fill(efefef,0)/p7i.vogel.de/wcms/62/5e/625e826db2aed/ebook-bdi-cover-ki.png)
Ernst weiter: „Deshalb brauchen wir ein Verbot solcher experimenteller KI in Bezug auf Migration und mindestens eine effektive und vor allem grundrechtskonforme Regulierung. Dabei denke ich vor allem an vorausschauende Analysesysteme, um Migration einzuschränken und zu verhindern, aber auch automatisierte Risikoanalysen und Profilerstellungen über Personen. Wir wissen, dass solche Anwendungen zutiefst voreingenommen interagieren und diskriminieren.“
„Wir lehnen auch solche pseudowissenschaftlichen Technologien wie Lügendetektoren oder Technologien ab, die über biometrische Analysen und Erkennung von ‚Emotionen‘ behaupten, Aussagen über Personen treffen zu können, genauso wie automatisierte Gesichtserkennung“, schloss Ernst ihre Ausführungen ab.
Alle Parteien war sich der entschiedenen Ablehnung solcher massenhafter Gesichtserkennung im öffentlichen Raum einig, ganz zu schweigen von darauf basierendem Social Scoring, wie es in der Volksrepublik China praktiziert wird.
Svenja Hahn, FDP, sagte daher in diesem Sinne: „Zugleich gilt es, das Gesetz zu einem Schutzwall für digitale Bürgerrechte zu machen. Daher fordere ich ein klares Verbot biometrischer Überwachung im öffentlichen Raum – für staatliche und private Player. Die Anwendung von KI-Technologie, die die von der EU-Kommission geplante Chatkontrolle ermöglicht, muss untersagt werden! Es darf keine generelle Überwachung privater Kommunikation sowie Untergrabung des Rechts auf Verschlüsselung geben. Predictive Policing, das Vorhersagen darüber trifft, ob eine Person in Zukunft straffällig werden könnte, darf in der EU genauso wenig geduldet werden wie staatliches Social Scoring.“
Hahn sieht aber in KI-Anwendungen große Chancen und sagte: „Neben diesen Grenzen des KI-Einsatzes, die ich in meinen Änderungsanträgen und Parlamentsverhandlungen klar ziehe, will ich, dass wir den innovativen Tech-Sektor in Europa und die breite Anwendung von KI in Industrie, Wissenschaft, Gesundheitswesen und vielen weiteren Sektoren beflügeln. Deshalb setze ich mich unter anderem für pragmatische Lösungen für Reallabore (Digital Sandboxes) sowie bürokratische Entlastungen und besondere Förderung von Start-ups und KMU ein. Nur eine schlanke, aber möglichst klare und zielgenaue Regulierung wird uns bei dem Ziel helfen, die EU zu einem weltweiten Innovations-Hotspot zu machen.“ Ziel sind für nicht Verbote, sondern Einschränkungen
„Die KI-Verordnung bietet eine einmalige Chance zur geostrategischen Positionierung Europas“, sagte Sergey Lagodinsky von den Grünen. Durch entschiedene Regulierung können wir jetzt den Spagat zwischen der Förderung von Kreativität und Innovation einerseits und zukunftssicherer Marktaufsicht schaffen. Die Diskussion um Sprachmodelle wie ChatGPT zeigt, wie wichtig es ist, dass die Verordnung mit der schnellen Entwicklung der Technologie Schritt hält.“
Diese Abgeordneten sitzen in maßgeblich am Gesetzgebungsprozess formulierenden Ausschüssen des Europa-Parlaments, nämlich IMCO, LIBE und JURI. Es könnte sich lohnen, die Entwicklung ihrer Positionen zu verfolgen. Inzwischen habe es in den Ausschüssen IMCO und LIBE „3.300 Änderungsvorschläge“ gegeben. Die meisten Parteien seien sich einig, dass ChatGPT als ein Stück Technik, das nur Texte generiere, keine Hochrisikoanwendung sei.
(ID:49249193)