Definition Was ist der AI Act?

Von Dipl.-Ing. (FH) Stefan Luber Lesedauer: 5 min |

Anbieter zum Thema

Der AI Act ist eine EU-Verordnung zur Regulierung von Künstlicher Intelligenz. Er liegt als Vorschlag vor und soll nach der endgültigen Annahme in der Europäischen Union in Kraft treten. Die KI-Verordnung verfolgt einen risikobasierten Ansatz und teilt KI-Technologien und -Systeme in verschiedene Risikoklassen ein. Entsprechend dem jeweiligen Risiko sind bestimmte Anforderungen zu erfüllen. KI-Systeme mit nicht akzeptablem Risiko sollen verboten werden.

(Bild: © aga7ta - stock.adobe.com)

Die vollständige Bezeichnung für AI Act ist Artificial Intelligence Act. Der deutsche Begriff lautet KI-Verordnung oder „Gesetz über Künstliche Intelligenz“. Es handelt sich beim AI Act um einen Vorschlag der Europäischen Kommission, wie Künstliche Intelligenz zukünftig in der EU reguliert und in sichere Bahnen gelenkt werden soll. Die Verordnung liegt derzeit (Stand Ende 2023) als Vorschlag vor und soll nach der endgültigen Verabschiedung in den kommenden Jahren in der Europäischen Union in Kraft treten. Der AI Act wäre damit eine der weltweit ersten gültigen Verordnungen zur Regulierung Künstlicher Intelligenz. Die KI-Verordnung wurde im Rahmen der EU-Digitalstrategie entworfen und verfolgt einen risikobasierten Ansatz. Sie enthält konkrete Anforderungen, Regelungen und Vorschläge für den Umgang mit Künstlicher Intelligenz.

Für die Überwachung und die Durchsetzung des AI Acts sind die Mitgliedstaaten verantwortlich. Sie werden hierbei von einem noch einzurichtenden European Artificial Intelligence Board unterstützt. Erfüllen KI-Systeme die Anforderungen der KI-Verordnung nicht oder werden nicht erlaubte KI-Praktiken eingesetzt, sieht der AI Act die Möglichkeit der Verhängung von Bußgeldern vor. Die Höhe des jeweiligen Bußgelds richtet sich nach der Schwere des Verstoßes oder dem weltweiten Jahresumsatz des gegen den AI Act verstoßenden Unternehmens. Auch bei falschen, unvollständigen oder irreführenden Auskünften an nationale Behörden können Bußgelder verhängt werden.

Wie ist Künstliche Intelligenz vom AI Act definiert?

Um festzulegen, welche Technologien und Systeme vom AI Act betroffen sind, definiert die Verordnung, was unter Künstlicher Intelligenz und KI-Systemen zu verstehen ist. Die Definition ist allgemeiner Art und recht weit gefasst. Laut der Definition der Verordnung ist ein KI-System eine Software, die mit den im Anhang I der Verordnung aufgeführten Techniken und Konzepten entwickelt wurde und Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringt. Diese beeinflussen das Umfeld, mit dem die KI interagiert. Im Anhang I werden Techniken aufgeführt wie maschinelles Lernen, tiefes Lernen, Inferenz- und Deduktionsmaschinen, statistische Ansätze, verschiedene Schätz-, Such- und Optimierungsmethoden, Experten- und Schlussfolgerungssysteme und einiges mehr.

Was sind die Ziele der KI-Verordnung?

Mit dem AI Act soll in der EU eine rechtliche Grundlage für den Einsatz und die Entwicklung von Künstlicher Intelligenz geschaffen werden. Ziel ist es, die Bereitstellung und Verwendung von KI-Systemen in sichere Bahnen zu lenken und durch KI entstehende Risiken oder Schäden zu verhindern oder zu minimieren. Darüber hinaus harmonisiert der AI Act die in der EU geltenden Regeln für KI-Systeme und schafft Rechtssicherheit. Dadurch können KI-Technologien in der Europäischen Union besser Fuß fassen und sich zum Vorteil von Wirtschaft, Wissenschaft und Bevölkerung weiterentwickeln.

Wen betrifft der AI Act?

In Artikel 2 des Vorschlags ist festgelegt, wer von den Vorgaben und Regeln des AI Acts betroffen ist. Die KI-Verordnung gilt sowohl für Unternehmen, Behörden und andere Einrichtungen, die KI-Systeme in er EU anbieten und in Verkehr bringen beziehungsweise betreiben als auch für die Nutzer der KI-Systeme innerhalb der EU. Damit können sowohl juristische als auch natürliche Personen vom AI Act betroffen sein. Das aus der Datenschutzgrundverordnung bekannte Marktortprinzip gilt auch für den AI Act und besagt, dass die Verordnung Anwendung findet, sobald die Künstliche Intelligenz auf den EU-Markt gerichtet ist, selbst wenn der Anbieter aus einem Drittland stammt. Die Regeln gelten für KI-Systeme, unabhängig davon, wo sie betrieben werden, sobald sie Folgen innerhalb der Europäischen Union haben. Der Einsatz von KI-Systemen für die Belange der nationalen Sicherheit und zu militärischen Zwecken liegt außerhalb des Anwendungsbereichs der Verordnung.

Was sind die verschiedenen Risikoklassen der KI-Systeme?

Der AI Act verfolgt einen risikobasierten Ansatz. Den KI-Systemen und KI-Technologien werden verschiedene Risikoklassen zugeordnet. Entsprechend dem jeweiligen Risiko sind bestimmte Anforderungen, Informationspflichten und Compliance-Vorgaben zu erfüllen. Je höher das Risiko, desto strenger die Vorgaben. Technologien mit unannehmbarem Risiko sind verboten.

Die verschiedenen Risikoklassen sind:

  • unannehmbares Risiko (verboten, da eine Bedrohung der Sicherheit, der Rechte und der Lebensgrundlage der Menschen)
  • hohes Risiko (KI in sensiblen oder systemkritischen Bereichen oder in bestimmten Produkten wie Flugzeugen)
  • begrenztes Risiko (Künstliche Intelligenz für weniger kritische Bereiche wie Chatbots im Servicebereich)
  • niedriges Risiko (geringes Risikopotenzial beispielsweise Suchalgorithmen oder Videospiele)

Was sind die Inhalte des AI Acts?

Die Vorgaben und Anforderungen des AI Acts an die KI-Systeme sind abhängig von der jeweiligen Risikoklasse. Je höher das Risiko, desto strenger die Vorgaben. KI-Systeme mit nicht akzeptablem Risiko sind verboten. Für Hochrisikosysteme sind Anforderungen wie die Einrichtung eines Risikomanagementsystems, die Einhaltung von Daten-Governance-Verfahren und Qualitätskriterien für Trainings-, Validierungs- und Testdatensätze, eine angemessene technische Dokumentation, eine automatische Protokollierung der Vorgänge und Ereignisse, die Umsetzung von Transparenzmaßnahmen, die wirksame Beaufsichtigung der KI durch natürliche Personen und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit notwendig. Bei KI-Systemen mit begrenztem Risiko bestehen hauptsächlich Transparenzpflichten. Keine speziellen rechtlichen Anforderungen sind für KI-Systeme mit niedrigem beziehungsweise keinem Risiko vorgesehen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Wie sieht der Ablauf bis zum Inkrafttreten der KI-Verordnung aus?

Bereits im Jahr 2019 wurde die Regulierung von Künstlicher Intelligenz in der EU angekündigt. Vorangegangen war im Jahr 2018 ein Strategiepapier Künstliche Intelligenz für Europa. Den ersten Entwurf der Verordnung veröffentlichte die EU-Kommission im April 2021. Die erste Sitzung des EU-Parlaments fand im Oktober 2022 statt. Bis Ende 2022 wurden Stellungnahmen und Änderungsvorschläge von EU-Staaten und Parlamentsausschüssen eingebracht. Durch den Erfolg generativer KI und Chatbots wie ChatGPT entstanden neue Diskussionen mit Einfluss auf den Zeitplan des AI Acts. Das Parlament verabschiedete den finalen Vorschlag im Juni 2023. Anschließend nahmen die EU-Gesetzgebungsorgane die Trilog-Verhandlungen auf. Die endgültige Fassung des AI Act soll Ende 2023 beziehungsweise noch vor der Europawahl 2024 verabschiedet werden. In Kraft treten könnte der AI Act zwei Jahre nach der Verabschiedung der endgültigen Fassung im Jahr 2026.

(ID:49778187)