Das Europäische Parlament in Straßburg berät derzeit über den AI Act, um das KI-Gesetz dieses Jahr der EU-Kommission vorzulegen. In einem Gespräch wurden die auseinanderklaffenden Auffassungen von KI und die Ansichten über deren verbotswürdige Anwendungen deutlich.
Das Europäische Parlament in Straßburg berät derzeit über den AI Act. Das Gesetz soll die Regeln für den Einsatz von Künstlicher Intelligenz in der EU festlegen.
In einer Online-Konferenz legten Abgeordnete der CDU/EVP, der Grünen, der Linken und der FDP ihre Ansichten dar, was sie unter Künstlicher Intelligenz (KI, Machine Learning) verstehen. Der Prozess der Meinungsbildung nähert sich bereits festgelegten Positionen der einzelnen, die sich einer Abstimmung im Parlament stellen könnten. Sobald die Abstimmung vorüber ist, kann der Gesetzentwurf der EU-Kommission vorgelegt werden.
Schon bei der Definition von KI tun sich die Parteien bzw. ihre Abgeordneten schwer. Die Definition soll weder ein zu enges Korsett im Hinblick auf Innovation und Wettbewerbsfähigkeit sein noch die Gefahren verharmlosen, die aus einem weitgefassten KI-Begriff bzw. -Standard erwachsen könnten, etwa im Bereich des Cybercrime. Auch ChatGPT fällt in den Bereich von KI.
Nach Ansicht des CDU/EVP-Abgeordneten Axel Voss handelt es sich bei KI-Strukturen mitunter um Hochrisiko-Infrastruktur. Eine besondere Bedeutung erlangen dabei „Sandboxes“, also Real-Labore, in denen KI-Modelle und -Algorithmen erprobt werden. Seiner Ansicht nach müssen solche Modelle im Hinblick auf Fairness und Gender ausgewogen trainiert werden.
Für Svenja Hahn (FDP) ist die KI-Definition noch offen, aber es gebe bereits eine von der OSZE. Die FDP will bekanntermaßen Europa zu einem attraktiven Industrie- und Forschungsstandort machen und daher KI für Innovationen nutzbar machen. „Der AI Act muss ein Booster für Innovation made in Europe werden.“ Allerdings gebe es einen sogenannten „Blackbox-Effekt“: Die KI-Modelle und -Algorithmen seien ja selbstlernend, aber innerhalb einer Blackbox nicht erklärbar. Daher sei diese Transparenz vordringlich. ChatGPT sei akzeptabel, aber auch selbstlernend. Doch es handle sich eben um ein Stück Technik, und worauf es ankomme, seien deren Anwendungsformen. Diese könnten bzw. sollten in Reallaboren, also Sandboxes, erprobt werden.
Hochrisiko-Anwendungen
Noch schwieriger, aber umso interessanter, wird es bei den vielfältigen Anwendungen von KI. Vielfach sind sie bereits zum Hochrisikobereich deklariert worden, und es sind hier die klarsten Unterschiede zwischen den parteilichen Ansichten und Position zu beobachten. Vielfach wurde von „No-Go-Anwendungen“ gesprochen.
Cornelia Ernst, Die Linke, sagte: „Schon jetzt sind Menschen, die in der EU Schutz suchen, die ‚Versuchskaninchen‘ für verschiedenste Technologien wie scannende Drohnen oder Lügendetektoren. Bei der Regulierung von Künstlicher Intelligenz sollten die Grundrechte aller Menschen im Kontext der Anwendung von Künstlicher Intelligenz geschützt werden.“
Ernst weiter: „Deshalb brauchen wir ein Verbot solcher experimenteller KI in Bezug auf Migration und mindestens eine effektive und vor allem grundrechtskonforme Regulierung. Dabei denke ich vor allem an vorausschauende Analysesysteme, um Migration einzuschränken und zu verhindern, aber auch automatisierte Risikoanalysen und Profilerstellungen über Personen. Wir wissen, dass solche Anwendungen zutiefst voreingenommen interagieren und diskriminieren.“
„Wir lehnen auch solche pseudowissenschaftlichen Technologien wie Lügendetektoren oder Technologien ab, die über biometrische Analysen und Erkennung von ‚Emotionen‘ behaupten, Aussagen über Personen treffen zu können, genauso wie automatisierte Gesichtserkennung“, schloss Ernst ihre Ausführungen ab.
Alle Parteien war sich der entschiedenen Ablehnung solcher massenhafter Gesichtserkennung im öffentlichen Raum einig, ganz zu schweigen von darauf basierendem Social Scoring, wie es in der Volksrepublik China praktiziert wird.
Svenja Hahn, FDP, sagte daher in diesem Sinne: „Zugleich gilt es, das Gesetz zu einem Schutzwall für digitale Bürgerrechte zu machen. Daher fordere ich ein klares Verbot biometrischer Überwachung im öffentlichen Raum – für staatliche und private Player. Die Anwendung von KI-Technologie, die die von der EU-Kommission geplante Chatkontrolle ermöglicht, muss untersagt werden! Es darf keine generelle Überwachung privater Kommunikation sowie Untergrabung des Rechts auf Verschlüsselung geben. Predictive Policing, das Vorhersagen darüber trifft, ob eine Person in Zukunft straffällig werden könnte, darf in der EU genauso wenig geduldet werden wie staatliches Social Scoring.“
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Hahn sieht aber in KI-Anwendungen große Chancen und sagte: „Neben diesen Grenzen des KI-Einsatzes, die ich in meinen Änderungsanträgen und Parlamentsverhandlungen klar ziehe, will ich, dass wir den innovativen Tech-Sektor in Europa und die breite Anwendung von KI in Industrie, Wissenschaft, Gesundheitswesen und vielen weiteren Sektoren beflügeln. Deshalb setze ich mich unter anderem für pragmatische Lösungen für Reallabore (Digital Sandboxes) sowie bürokratische Entlastungen und besondere Förderung von Start-ups und KMU ein. Nur eine schlanke, aber möglichst klare und zielgenaue Regulierung wird uns bei dem Ziel helfen, die EU zu einem weltweiten Innovations-Hotspot zu machen.“ Ziel sind für nicht Verbote, sondern Einschränkungen
„Die KI-Verordnung bietet eine einmalige Chance zur geostrategischen Positionierung Europas“, sagte Sergey Lagodinsky von den Grünen. Durch entschiedene Regulierung können wir jetzt den Spagat zwischen der Förderung von Kreativität und Innovation einerseits und zukunftssicherer Marktaufsicht schaffen. Die Diskussion um Sprachmodelle wie ChatGPT zeigt, wie wichtig es ist, dass die Verordnung mit der schnellen Entwicklung der Technologie Schritt hält.“
Diese Abgeordneten sitzen in maßgeblich am Gesetzgebungsprozess formulierenden Ausschüssen des Europa-Parlaments, nämlich IMCO, LIBE und JURI. Es könnte sich lohnen, die Entwicklung ihrer Positionen zu verfolgen. Inzwischen habe es in den Ausschüssen IMCO und LIBE „3.300 Änderungsvorschläge“ gegeben. Die meisten Parteien seien sich einig, dass ChatGPT als ein Stück Technik, das nur Texte generiere, keine Hochrisikoanwendung sei.