Fragen der Compliance Welche Sicherheit bei Künstlicher Intelligenz gefordert wird

Von Dipl.-Phys. Oliver Schonschek Lesedauer: 4 min |

Anbieter zum Thema

Wenn es um mögliche Sicherheitsrisiken beim Einsatz von KI geht, wird häufig das Beispiel des vernetzten, autonomen Fahrens betrachtet, denn dort liegen schwerwiegende Konsequenzen bis hin zum Verlust von Menschenleben auf der Hand. Doch was bedeutet eigentlich sichere KI im Automobil? Was wird dort gefordert? Wir geben einen Überblick.

KI-Systeme, die in der EU verwendet werden, müssen sorgfältig geprüft werden. Das gilt insbesondere für Kritische Infrastrukturen wie etwa im Verkehr.
KI-Systeme, die in der EU verwendet werden, müssen sorgfältig geprüft werden. Das gilt insbesondere für Kritische Infrastrukturen wie etwa im Verkehr.
(Bild: © Blue Planet Studio - stock.adobe.com)

Noch im Jahr 2018 meldete der Digitalverband Bitkom: Die Mehrheit der Bundesbürgerinnen und Bundesbürger wünscht sich den Einsatz von Künstlicher Intelligenz (KI), um den Verkehrsfluss zu optimieren und Unfälle zu vermeiden. So hielten es 58 Prozent für sinnvoll, mithilfe von KI selbstfahrende Fahrzeuge auf die Straße zu bringen.

Dieses Einsatzgebiet für KI wurde in den vergangenen Jahren sehr intensiv untersucht, aber auch kontrovers diskutiert, nicht ohne Folgen. Im Jahr 2020 zum Beispiel berichtete der Branchenverband Bitkom: 57 Prozent der Bundesbürgerinnen und Bundesbürger gehen davon aus, dass es durch selbstfahrende Autos vermehrt zu schweren Unfällen mit vielen Toten kommen wird.

Die Erklärung von Bitkom-Präsident Berg für diese Neubewertung lautete damals: „In der Vergangenheit wurde ausführlich über fast jeden schwereren Unfall eines selbstfahrenden Test-Autos berichtet. Das hat sich offensichtlich in den Köpfen festgesetzt. Dabei ist gerade die zusätzliche Sicherheit einer der wichtigsten Gründe für die Entwicklung autonomer Fahrzeuge.“

Doch kann KI natürlich nur dann zusätzliche Sicherheit ermöglichen, wenn sie selbst die notwendige Security an Bord hat. Die Fahrzeugsicherheit hängt dann eng mit der KI-Sicherheit zusammen. Was aber bedeutet KI-Sicherheit?

KI-Sicherheit im Automobil

In dem angestrebten KI-Rechtsrahmen in der EU soll sichergestellt werden, dass KI-Systeme, die in der EU verwendet werden, sicher, transparent, ethisch, unparteiisch und unter menschlicher Kontrolle sind. Sie werden daher nach Risiken eingeteilt.

Ein hohes Risiko wird dabei insbesondere gesehen bei Kritischen Infrastrukturen (z. B. im Verkehr), in denen das Leben und die Gesundheit der Bürger gefährdet werden könnten. Alle derartigen Systeme müssen sorgfältig geprüft werden, bevor sie in Verkehr gebracht werden und auch während ihres gesamten Lebenszyklus, so die EU-Kommission.

Für die Komformitätsbewertung eines KI-Systems braucht es dann entsprechende Kriterien, insbesondere auch Sicherheitskriterien, die eine KI in einem autonomen Fahrzeug zuverlässig erfüllen muss. Daran wird bereits gearbeitet.

Beispiel: Projekt AIMobilityAuditPrep

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das Technologieunternehmen ZF haben im gemeinsamen Projekt AIMobilityAuditPrep an Konzepten und Methoden zur Prüfung der IT-Sicherheit von KI-Systemen in Kraftfahrzeugen gearbeitet.

Basierend auf wissenschaftlichen Erkenntnissen und bestehenden Standards wurden bislang 50 technisch relevante Anforderungen an KI-Systeme zusammengestellt, eine erweiterbare Testumgebung für KI-Systeme entwickelt sowie die grundsätzliche Machbarkeit und praktische Umsetzbarkeit der Tests anhand ausgewählter Anwendungsfälle in einer Simulation demonstriert.

Mit dem Folgeprojekt AIMobilityAudit soll die praktische Umsetzung von Sicherheits-Checks für KI beim automatisierten Fahren vorangetrieben werden. Dabei werden konkrete Prüfkriterien und Handlungsempfehlungen erarbeitet, die künftig insbesondere in die Entwicklung von Sicherheitstests für Kraftfahrzeuge einfließen sollen.

Bis September 2024 wird das AI Lab von ZF das Projekt in Zusammenarbeit mit dem BSI als Auftraggeber umsetzen. Als weiterer Projektpartner ist die TÜV Informationstechnik GmbH (TÜVIT) eingebunden, ein auf IT-Sicherheit spezialisiertes Unternehmen der TÜV Nord Group.

„Künstliche Intelligenz ist eine Schlüsseltechnologie für hochautomatisiertes Fahren“, sagte Dr. Georg Schneider, Leiter des ZF AI Labs am Standort Saarbrücken. „Um die enormen Chancen nutzen zu können, müssen wir uns auch sorgfältig mit den möglichen Risiken auseinandersetzen. Unser Anliegen bei ZF ist es, den Einsatz von Künstlicher Intelligenz für die Mobilität der Zukunft nachvollziehbar, sicher und in jeder Beziehung vertrauenswürdig zu gestalten.“

„IT-Sicherheit als Grundvoraussetzung für eine vertrauenswürdige Digitalisierung muss auch für den Einsatz von KI hinreichend garantiert werden. Aktuell sind hierfür benötigte Informationen, Methoden und praktisch einsetzbare Werkzeuge jedoch nicht hinreichend verfügbar“, so Arndt von Twickel, Projektleiter im BSI, zur Notwendigkeit der Projektarbeiten.

Security by Design als Ziel der KI-Sicherheit im Fahrzeug

Noch gibt es also keine abschließenden Kriterien, die eine sichere KI im Automobil erfüllen muss, doch es wird daran gezielt gearbeitet. Doch die Ziele sind klar. Die Gemeinsame Forschungsstelle der EU-Kommission und die EU-Agentur für Cybersicherheit (ENISA) haben bereits 2021 einen Bericht zu Cybersicherheitsrisiken im Zusammenhang mit künstlicher Intelligenz (KI) in autonomen Fahrzeugen vorgelegt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Der Bericht plädiert für einen Security-by-Design-Ansatz bei der Entwicklung von KI-Funktionen in autonomen Fahrzeugen, bei dem die Cybersicherheit ein zentrales Element des Fahrzeugdesigns wird. Das bedeutet, dass Sicherheitsanforderungen von der ersten Phase der Produktentwicklung an berücksichtigt werden müssen.

Juhan Lepassaar, Exekutivdirektor der EU-Agentur für Cybersecurity ENISA, sagte: „Wenn ein unsicheres autonomes Fahrzeug die Grenze eines EU-Mitgliedstaates überquert, werden auch seine Schwachstellen sichtbar. Sicherheit sollte nicht als nachträglicher Gedanke kommen, sondern eine Voraussetzung für den vertrauenswürdigen und zuverlässigen Einsatz von Fahrzeugen auf Europas Straßen sein.“

Der Bericht empfiehlt entsprechend systematische Sicherheits- und Risikobewertungen von KI-Komponenten vor und während des Entwicklungsprozesses. Er fordert außerdem KI-Sicherheitsrichtlinien und eine KI-Sicherheitskultur, in der alle an der Produktentwicklung beteiligten Akteure über ausreichende Cybersecurity-Kenntnisse verfügen und mit dem gemeinsamen Ziel zusammenarbeiten, ein sicheres Produkt zu entwickeln.

Es zeigt sich: Wenn in Zukunft ein neues Fahrzeugmodell einer Konformitätsprüfung unterzogen wird, bevor es für den Straßenverkehr zugelassen wird, darf die Prüfung der KI, der IT-Sicherheit und der KI-Sicherheit nicht fehlen. Dafür werden gegenwärtig die Grundlagen gelegt.

(ID:49034162)