Stellen wir uns vor, die Ingenieure der europäischen Raumfahrtbehörde ESA berechnen die Flugbahn ihrer für 2030 geplanten Marsmission – jedoch unter der Annahme, dass 1 plus 1 nicht 2, sondern 3 ergebe. Der Rover Rosalind Franklin würde den Roten Planeten vermutlich um Millionen Kilometer verfehlen. Ähnlich gravierend müssen wir uns die Folgen von Data Poisoning vorstellen, also der Infektion von KI-Systemen mit falschen Trainingsdaten.
Die Autorin: Jana Behr ist Partnerin und CTO für den Bereich Financial Services und Expertin für Financial Data Leadership bei KPMG
(Bild: KPMG)
Wie bereits bei den Cloud Services dominieren auch in Sachen LLMs und KI-Tools einige wenige US-Unternehmen den Weltmarkt. Die sogenannten Hyperscaler verfügen nicht nur über technologisch führende Lösungen, ihre KI-Modelle sind auch fest in den IT-Strukturen europäischer Unternehmen verankert. Weder gibt es in Europa konkurrenzfähige Alternativen, noch wäre der Wechsel zu anderen Anbietern ohne weiteres möglich.
Das Problem: Die US-Tech-Giganten lassen sich bei den Trainingsdaten ihrer KI-Systeme nicht in die Karten schauen. Laut AI Act sind die Provider zwar dazu verpflichtet, „ausführliche Zusammenfassungen“ ihrer KI-Trainingsdaten vorzulegen, doch das ist nicht genug. Erst die vollständige Offenlegung aller Trainingsdaten und die stärkere Haftbarkeit der Anbieter könnten einen entscheidenden Wendepunkt für die KI-Datenqualität darstellen. Heute können europäische Unternehmen weder nachvollziehen, wie die Ergebnisse ihrer Systeme zustande kommen, noch haben sie eine effektive Möglichkeit der Qualitätskontrolle.
Digitale Fake News: Realer Schaden für Finanzdienstleister
Der Bereich ESG-Reporting ist derzeit ein besonders plakatives Beispiel für das erhebliche Schadenspotenzial falscher Daten im Zusammenhang mit KI-Systemen: Im Zuge von CSRD, EU-Offenlegungsverordnung und ESMA-Namensrichtlinie müssen Banken und Fondsanbieter nicht nur über die eigene Nachhaltigkeit berichten. Ihre Pflicht zur ESG-Berichterstattung bezieht sich auch auf die Unternehmen, denen sie Kredite gewähren bzw. deren Anteile sich in ihrem Investmentportfolio befinden. Gleichzeitig reduziert die angekündigte Omnibus-Reform der EU künftig die Anzahl der berichtspflichtigen Unternehmen um rund 80 Prozent.
Deshalb müssen sich Finanzdienstleister derzeit generell die Frage stellen, woher sie künftig die ESG-Daten ihrer Kreditnehmer und Portfoliovertreter bekommen, wenn diese keine Nachhaltigkeitsberichte verfassen. Es gibt nur eine Lösung: das Sammeln und die Auswertung öffentlich zugänglicher Informationen mithilfe von KI. Sind diese Daten fehlerhaft, kann es zu Fehleinschätzungen kommen – und damit im Extremfall zu Sanktionen.
Doch das ist kein einfaches Projekt: Laut einer Veröffentlichung der Datenqualitätsplattform NewsGuard aus dem März sind die zehn weltweit führenden generativen KI-Modelle heute mit gezielten Falschinformationen zum Ukraine-Krieg infiziert – und zwar zu 33 Prozent. Allein im vergangenen Jahr waren diese ein Grund für Falschinformationen in 3,6 Millionen Webartikeln.
Das veranschaulicht das ungeheure Schadenspotenzial: Aufgrund der schier endlosen Menge ist die Richtigkeit öffentlich zugänglicher Informationen für einzelne Unternehmen so gut wie nicht zu überprüfen, weshalb sich Banken in einer Zwickmühle befinden: Ohne KI können sie Anforderungen wie das Scope-3-ESG-Reporting nicht vollständig erfüllen, mit KI fehlt ihnen derzeit die Möglichkeit zur verlässlichen Qualitätskontrolle.
Solide Steuerung des KI-Flaggschiffs
Solide Steuerungsmöglichkeiten haben Finanzdienstleister derzeit nur, wenn es um selbst erhobene oder eingekaufte Daten geht. In der Regel greift die Branche auf einen riesigen Pool externer Datenquellen zu: Marktdatensysteme, Echtzeit-Finanzdaten, Wertpapierstammdaten, Steuerdaten etc. Bei diesen eingekauften Daten liegt die Gewährleistungspflicht im Zweifel beim Provider – oft gestützt auf langjährige Vertrauensverhältnisse.
Bessere Steuerungsmöglichkeiten haben Finanzdienstleister bei selbst erhobenen KI-Daten. Allerdings gilt auch hier: Besonders generative KI ist immer nur so gut wie ihre Datengrundlage. Damit die KI – etwa im wichtigen Customer Channel – funktioniert, müssen Kundendaten und -historie in Gestalt persönlicher Daten, Kontobewegungen, Kredite und anderer Leistungen sowie die bisherige Korrespondenz zwischen Kunde und Bank so umfassend wie möglich erfasst sein. Zusätzlich sollten Unternehmen die entsprechenden APIs (Application Programming Interfaces) installieren, die der KI den Zugriff auf alle Daten und Systeme ermöglichen.
Um die Nutzung von KI nach außen zu optimieren, hilft die Technologie auch beim internen Datenmanagement: Die automatisierte Datenverarbeitung erhöht die Datenqualität, da die Fehlerquelle „Mensch“ ausgeschlossen wird (etwa beim Datentransfer). Zudem erkennt KI in den Datensätzen Muster und Anomalien, ermöglicht effiziente Analysen und die sichere Verwaltung von Daten. Darüber hinaus unterstützt sie Finanzdienstleister dabei, ihre oft heterogenen und dezentralen Datensätze anzugleichen, sodass jede Filiale und internationale Zweigstelle auf den gleichen, einheitlichen Datenpool zugreift – die Grundvoraussetzung für effiziente KI-Use-Cases. Ähnlich wie die Marsmission ist ein solches Projekt eine große Herausforderung – personell, zeitlich und finanziell. Doch die einzige Alternative wäre, dass das Flaggschiff KI als Weltraumschrott endet.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Europäische Rechtsgrundsätze für KI-Systeme
Absolute Sicherheit wird es im Bereich der KI vermutlich nie geben: Es kann immer zu sogenannten Halluzinationen eines Systems kommen, also zu Trugschlüssen aufgrund falscher Berechnungen. Denn KI errechnet Wahrscheinlichkeiten, keine mathematischen Wahrheiten. Wenn der Nutzen den Schaden langfristig überwiegt, stellt das für die Finanzwelt kein grundsätzliches Problem dar.
Jede KI-Entscheidung vom Menschen überprüfen zu lassen, ist ein hehres Ideal – jedoch in der Praxis nicht umzusetzen. Würde für jeden Chatbot in Zukunft ein Mitarbeiter zur Qualitätskontrolle abgestellt, hätte sich der Mehrwert der Technologie in Luft aufgelöst, denn KI sorgt nur dann für Wertschöpfung, wenn sie Automatisierung ermöglicht.
Zum existenziellen Problem für Banken, Versicherungen und Asset Manager werden KI-Pannen dann, wenn die Fehlerquellen ein exponentielles Wachstum einleiten: etwa aufgrund sich potenzierender Fake News aus dem Internet oder fehlerhafter Trainingsdaten. Denn wenn Falschinformationen einem selbstlernenden System als Grundlage dienen, werden die Ungenauigkeiten so groß, dass ganze Prozesse scheitern.
Um dem entgegenzuwirken, ist auch die Politik gefragt: Seit rund zehn Jahren unterliegen US-Social-Media-Plattformen europäischen Rechtsgrundsätzen – etwa mit Blick auf den Umgang mit Hassrede und Falschinformationen. Im Bereich der KI ist eine ähnliche Entwicklung erforderlich. Verbindliche Offenlegungsstandards für KI-Trainingsdaten – idealerweise auch rückwirkend – wären ein wichtiger Schritt in Richtung Transparenz und Qualitätssicherung. Damit der Finanzsektor auch künftig verlässlich arbeiten kann, ist weiterhin intensive Abstimmung zwischen den USA und der EU notwendig.