Künstliche Intelligenz im Straßenverkehr DEKRA fordert: KI im Fahrzeug braucht klare Sicherheits- und Qualitätsstandards

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

KI-Systeme sollen die Verkehrssicherheit erhöhen – dürfen sie aber auch gefährden? Die Sachverständigenorganisation DEKRA mahnt, dass Sicherheit und Zuverlässigkeit von Künstlicher Intelligenz (KI) im Fahrzeug zwingend gewährleistet sein müssen. Der Verband verweist auf die Normen und den EU-Rechtsrahmen, die jetzt umgesetzt werden müssen.

DEKRA warnt vor unzureichender Kontrolle von KI-Systemen im Fahrzeug. Neue EU-Regeln und Normen wie ISO PAS 8800 sollen Sicherheit und Transparenz sichern.(Bild:  DEKRA)
DEKRA warnt vor unzureichender Kontrolle von KI-Systemen im Fahrzeug. Neue EU-Regeln und Normen wie ISO PAS 8800 sollen Sicherheit und Transparenz sichern.
(Bild: DEKRA)

Künstliche Intelligenz ist in modernen Fahrzeugen längst Standard – ob beim automatischen Spurhalten, beim Erkennen von Verkehrszeichen oder beim präventiven Bremsen. Doch je tiefer KI in sicherheitsrelevante Systeme eingreift, desto drängender wird die Frage nach ihrer Verlässlichkeit. In ihrem Verkehrssicherheitsreport 2025 betont DEKRA, dass Sicherheit, Transparenz und Nachvollziehbarkeit bei KI-basierten Fahrzeugfunktionen zu jeder Zeit gewährleistet sein müssen.

Mit Blick auf den AI Act der EU gelten Advanced Driver Assistance Systems (ADAS) als Hochrisiko-Systeme. Damit gelten künftig umfangreiche Anforderungen an Qualitäts-, Daten- und Risikomanagement. Hersteller müssen nicht nur den Entwicklungsprozess, sondern den gesamten Lebenszyklus der Systeme dokumentieren – inklusive Datenquellen, Trainingsmethoden und Monitoring im Betrieb.

Wesentliche Leitplanken sollen dabei internationale Standards bilden. Die neue ISO PAS 8800 konkretisiert erstmals die Anforderungen an den KI-Lebenszyklus im Automotive-Kontext. Sie ergänzt bestehende Regelwerke wie die ISO 26262 (funktionale Sicherheit) und die ISO 21448 (SOTIF – Sicherheit der beabsichtigten Funktion). Laut DEKRA ist entscheidend, dass diese Normen nicht isoliert betrachtet, sondern als durchgängiges Qualitätssystem verstanden werden.

Zugleich weist die Organisation auf die ethischen und gesellschaftlichen Implikationen autonomer Entscheidungen hin. Selbst lernende Systeme müssten nachvollziehbar bleiben, gerade wenn sie im Ernstfall über Leben und Tod entscheiden. Beispiele wie das Moral-Machine-Experiment zeigen, dass moralische Urteile kulturell unterschiedlich ausfallen – eine Herausforderung für global agierende Entwickler.

Auch die Überwachung nach der Zulassung wird zum Prüfstein: KI-Systeme dürfen nicht statisch geprüft werden, sondern müssen laufend validiert werden, sobald sich Datengrundlagen, Umgebungen oder Softwareversionen ändern. DEKRA fordert deshalb ein umfassendes Monitoring-Konzept, das automatisierte Nachprüfungen und Feedback-Loops zwischen Fahrzeug und Prüfinstitution ermöglicht.

Für die Prüforganisation steht fest: Technologische Innovation allein reicht nicht. Nur in Verbindung mit robusten rechtlichen Strukturen, nachvollziehbaren Standards und gesellschaftlicher Akzeptanz kann KI einen nachhaltigen Beitrag zur Verkehrssicherheit leisten.

(ID:50601343)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung