Das bietet AI Factory von IBM So kann man KI auch in geschäftskritischen Anwendungen vertrauen

|

Bis zu 88 Prozent der IT-Profis in Deutschland, die in der aktuellen „IBM AI Adoption Study – German Report“ befragt wurden, halten es für sehr wichtig, dass sie den Ergebnissen von KI-Lösungen vertrauen können. 85 Prozent halten zudem die Erklärbarkeit der Ergebnisse für geschäftskritisch. Michael Ehrmantraut, Executive Information Architect bei IBM, erklärt, wie AI Factory die Operationalisierung und Industrialisierung von KI vorantreibt und das notwendige Vertrauen und die Erklärbarkeit bei KI ermöglicht.

Gesponsert von

(Bild: metamorworks@stock.adobe.com)

Politik, Verbraucherschützer und Datenschützer, aber auch die Nutzer erwarten von KI Transparenz und Nachvollziehbarkeit. Wie sehen dies die Unternehmen, die KI-Lösungen einsetzen oder einsetzen wollen?

Michael Ehrmantraut: Nach meiner Erfahrung sind Unternehmen aufgrund dieser Erwartungshaltung eher zurückhaltend gegenüber dem Einsatz von KI. So ist man eher in unkritischen Bereichen gestartet, wie z.B. ChatBots, die Fragen auf Basis einer qualitätsgesicherten Datenbasis beantworten, oder man nutzt KI in solchen Prozessen, bei denen eine abschließende Qualitätssicherung durch Mitarbeiterinnen und Mitarbeiter erfolgen kann.

Der Einsatz von KI in vollautomatischen Kundenprozessen wird dagegen etwas vorsichtiger angegangen – gerade in streng regulierten Industrien wie dem Finanzwesen, wo zudem auch Reputationsrisiken eine große Rolle spielen.

Es gibt jedoch Bestrebungen, hier für klare Vorgaben und Richtlinien zu sorgen, ein wichtiger Schritt für diese Unternehmen. Neben den Aktivitäten im Deutschen Ethikrat und bei der EU sind das z.B. auch das Prinzipienpapier der BaFin: „Big Data und künstliche Intelligenz: Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen“. Da wird auch eine Einordnung in europäische Vorgaben vorgenommen, was für viele sicher sehr hilfreich ist.

Diese Bestrebungen zum besseren Verständnis der Richtlinien auf der einen Seite und die gerade immer stärker diskutierten Konzepte und Lösungen zum Entwickeln einer KI, der man vertrauen kann, führen aktuell bei vielen Unternehmen dazu, diese Zurückhaltung zu überwinden.

Fällt es den Unternehmen leicht, KI vertrauenswürdig zu gestalten? Wo liegen die Herausforderungen, gerade in den Bereichen Compliance und Risikomanagement?

Michael Ehrmantraut: Leicht fällt es ihnen ganz sicher nicht! Man muss ja in der Lage sein, auf Anfragen von z.B. Regulierungsbehörden oder Verbraucherschutzverbänden jederzeit darüber Auskunft geben zu können, „weshalb ein KI-unterstütztes System an diesem Tag, auf Basis dieser Eingabe und unter Berücksichtigung dieser vorhanden Zusatzinformationen zu genau diesem Ergebnis gekommen ist“.

Das ist durchaus machbar! Aber es erfordert eine hohe Transparenz und vor allem eine Nachverfolgbarkeit der Datenherkunft (Data-Lineage) bis hin zu dem Aspekt: „Welche Trainingsdaten lagen zur Entwicklung eines KI-Modells vor?“.

Da bei aller Methodik und Transparenz auch Fehler passieren können, kommen auf Risk & Compliance noch zusätzlich die Aufgaben zu, diese Risiken zu identifizieren, zu bewerten und Mitigations-Strategien zu definieren. Im Idealfall erfolgt das aber zumindest halbautomatisch und nicht ausschließlich manuell.

Nehmen wir einen konkreten Anwendungsfall: Die KFZ-Schadensmeldung. Wie kann KI hier helfen? Warum ist hier Transparenz und Erklärbarkeit der KI so wichtig?

Michael Ehrmantraut: Der Anwendungsfall „KFZ-Schadensmeldung“ ist ein schönes Beispiel, um die besprochenen Aspekte zu illustrieren und für die meisten leicht nachzuvollziehen, auch wenn sie nicht Mitarbeiterin oder Mitarbeiter einer Versicherung sind.

Früher, beim klassischen Ansatz, hat ein Versicherter einen Schaden über seinen Versicherungsvertreter gemeldet. Die Unterlagen gingen – meist per Post – an die Zentrale, wo dann unterschiedliche Mitarbeiter nacheinander verschiedene Aufgaben abgearbeitet haben, und am Ende stand eine Antwort bezüglich einer Kostenübernahme. Das konnte zum Teil Wochen dauern.

Während der letzten Jahre erfolgten vielfältige Optimierungen dieses Prozesses: Eine „Multi-Channel-Strategie“ bietet dem Kunden zusätzliche Kommunikationskanäle, ChatBots werden zur Beantwortung von „einfachen“ Fragen angeboten. Falls Papierdokumente zum Einsatz kommen, werden diese in Scan-Straßen digitalisiert, sodass die interne Verarbeitung vollständig digital erfolgen kann. Und die Abarbeitung des Prozesses wurde durch ein Workflow-System automatisiert und überwacht.

Zusätzlich wurden teilweise Prozessschritte durch IT-Algorithmen ersetzt, wie eine Betrugserkennung oder eine Kündiger- bzw. Kundenwertanalyse, um den Kulanz-Level für diesen Kunden jeweils individuell zu bestimmen. Meist erfolgt jedoch immer noch eine abschließende Qualitätssicherung durch einen Menschen („human-in-the-loop“). Dadurch ist es auch unkritisch, wenn zum Beispiel ein Prozessschritt – wie eine Kündiger-Analyse – sogar durch ein KI-Modell erfolgt.

Die Summe dieser Maßnahmen hat in vielen Fällen die Bearbeitungszeit auf wenige Tage reduziert.

Einige Versicherer haben nun das Ziel, im Kontext ihrer Digitalisierungsagenda einige Prozesse „zu vollautomatisieren“: Wenn ein Kunde in diesem Beispiel eine Schadensmeldung online durchführt, will man ihm direkt (innerhalb von Sekunden) eine abschließende Antwort zuliefern, wie und in welcher Höhe der Schaden reguliert wird und warum.

Das bedeutet nun, alle Prozessschritte durch IT-Algorithmen umzusetzen und dadurch sog. „human interactions“ zu ersetzen. Wenn dafür KI-Modelle zum Einsatz kommen, hat man nun ganz andere Anforderungen an Transparenz und Nachvollziehbarkeit, denn Fehler führen ja – aufgrund der fehlenden menschlichen Qualitätssicherung - direkt zu einer Außenwirkung und beeinflussen somit die Reputation.

Das Vertrauen in diese KI-Modelle wird also zu einem entscheidenden Faktor.

IBM bietet die „AI Factory“. Was versteht man darunter?

Michael Ehrmantraut: Die „AI Factory“ bietet Unternehmen die richtige Balance zwischen drei Aspekten: Personen, Prozesse und Werkzeuge. Für die Operationalisierung von KI wird mit Hilfe dieser drei Aspekte das erforderliche Vertrauen erzielt, um interne Freigaben zu bekommen und eine Einbindung ins Risikomanagement sowie in die fortlaufende Überwachung der KI-Modelle zu erhalten.

Darüber hinaus bietet die AI Factory Mechanismen zur Industrialisierung von KI, um die Entwicklung durch Self-Service und einfache Zusammenarbeit der Data Scientisten so effizient wie möglich zu gestalten, damit ein Unternehmen bei der „Voll-Automatisierung“ vieler Geschäftsprozesse schnell und kostenschonend vorankommt.

(Bild: IBM)

Welche Elemente hat die AI Factory?

Michael Ehrmantraut: Die AI Factory besteht aus fünf Elementen: ‚Build AI‘ bietet alles, um KI Modelle in einem verteilten Team zu entwickeln. ‚Trust AI‘ ermöglicht es, das benötigte Vertrauen in die Ergebnisse zu erzeugen. ‚Use AI‘ liefert die Mechanismen, um die KI-Modelle in bestehende operative Systeme einzubinden.

Diese ersten drei Elemente benötigen als Basis das vierte Element, eine Hybrid Cloud AI Platform, um zum einen die nötige Skalierung für die Fachentwickler zu bieten, aber auch, um bei der Einbindung in bestehende Systeme den aktuell entstehenden Multi-Cloud-Umgebungen für Daten und APIs Rechnung zu tragen.

Über allem steht das fünfte Element, eine industriespezifische Ausprägung, um die jeweiligen Anforderungen zu adressieren.

Wie wird dadurch die Entwicklung von KI-basierten Lösungen wie der KFZ-Schadensmeldung unterstützt?

Michael Ehrmantraut: Hier gibt es maßgeblich zwei Aspekte: Meist starten Data Scientisten in den Fachbereichen mit einer lokalen Entwicklungsumgebung mit selbst installierten Open Source Modulen wie Jupyter, Phyton, R-Studio, Tensorflow, usw.

Solange sie allein entwickeln, funktioniert das auch sehr gut. Sobald sie jedoch ihre Erzeugnisse mit anderen teilen wollen (z.B. für die Qualitätssicherung) stehen sie vor der Aufgabe, dass diese lokale Umgebung nahezu identisch auf dem Rechner des Kollegen oder der Kollegin vorhanden sein muss.

Hier kommt die AI Factory ins Spiel: Sie bietet eine kollaborative und offene Entwicklungsumgebung, die zum einen die verwendeten Open-Source-Werkzeuge unterstützt, zum anderen jedoch eine zentrale Installation bietet, um den Austausch über sogenannte Projekte, Daten-Kataloge und Repositories zu erleichtern.

Der zweite Aspekt ist nicht weniger wichtig: Für die Entwicklung und vor allem das Training von Modellen ist der Data Scientist abhängig von verfügbaren, zugreifbaren und qualitativ hochwertigen Daten. Die AI Factory bietet Funktionalitäten, um mittels Self-Service auf vielfältige Daten-Quellen zuzugreifen, eine sogenannte Discovery zum Verständnis dieser Daten vorzunehmen und die Ergebnisse in einem Data Catalog zur Wiederverwendung festzuhalten.

Um zu unserem Anwendungsbeispiel, der KFZ-Schadensmeldung, zurückzukommen: Beim Beispiel KfZ-Schadensmanagement gibt es ja einige KI-Modelle wie zum Beispiel die Kündiger- und die Kundenwert-Analyse. Für beide benötigen die Data Scientisten ähnliche Datenquellen rund um den Kunden wie Stammdaten, Customer-Journey und Vertragsdaten.

Das Element „Build AI“ der AI Factory bietet Funktionalitäten, um hier zwischen den Data Scientisten für die beiden Modelle einen möglichst hohen Grad von Re-Use und Synergien zu ermöglichen.

Vertrauen in KI ist besonders wichtig. Wie kann man das Vertrauen in die Anwendung der KFZ-Schadensmeldung mit der AI Factory gewährleisten?

Michael Ehrmantraut: Vertrauen ist ja die „Parade-Disziplin“ der AI Factory. Auf den Anwendungsfall bezogen bedeutet das: Ein formal klar definierter Validierungsprozess erzeugt dadurch Vertrauen, indem verschiedene Rollen im Unternehmen das Modell nach ihren Kriterien begutachten und freigeben müssen. Auch ein Erfassen der Risiken erfolgt hier.

Ein AI Model Lifecycle Management bietet volle Transparenz über die einzelnen KI-Modelle des Use Cases sowie deren Status. Hier ist auch insbesondere zu beachten, dass KI-Modelle, die kontinuierlich einem Re-Training unterworfen werden, ja so eine Art „Eigenleben“ entwickeln, welches man so von Programmcode in Produktion nicht kennt.

Der nächste wichtige Aspekt sind die Merkmale des KI-Modells hinsichtlich Accuracy, Fairness und BIAS Detection. Ein klares Verständnis dieser Merkmale über den gesamten Lifecycle des Modells hinweg steigert maßgeblich das Vertrauen.

Weiterhin sind klar definierte Prozesse und Werkzeuge sehr wichtig, um bei Bedarf gegenüber Regulierungsbehörden, Verbraucherverbänden oder Gerichten jederzeit erklären zu können, warum sich das Modell so verhalten hat („Explainability“).

Zu guter Letzt müssen die KI-Modelle während des Betriebs kontinuierlich überwacht werden. Das bedeutet zum Beispiel, dass die Mitarbeiterinnen und Mitarbeiter der Fachbereiche, welche die Kündiger- bzw. Kundenwertanalyse entwickelt haben, die Ergebnisse analysieren, Schieflagen frühzeitig erkennen und darauf reagieren sowie die Modelle neu trainieren oder weiterentwickeln.

Und wie wird die Nutzung von KI durch die AI Factory unterstützt?

Michael Ehrmantraut: Gerade im Versicherungsbereich findet man in vielen Fällen etablierte, individuell entwickelte Produktivsysteme, oft auf Basis des IBM Mainframe. Die Entwicklung der KI-Modelle erfolgt jedoch meist auf Cloud-basierten Systemen, manchmal sogar bei Cloud-Hyperscalern gehostet. Als Unternehmen muss man sich die Frage stellen: „Will ich, dass meine operativen Systeme KI-Modelle aufrufen, die ggf. durch eine WAN getrennt in eine public cloud deployed wurden?“

Hier bietet die AI Factory Mechanismen, um die KI-Modelle zwar weiterhin flexibel auf Cloud-Technologie zu entwickeln, jedoch so nahe an die Produktivsysteme zu deployen, dass nicht-funktionale Anforderungen wie Security, Latenz und Durchsatz erfüllt werden können.

(Bild: IBM)

Für das intelligente Datenmanagement und die Datennutzung bei KI spielt ja auch das Konzept Data Fabric eine tragende Rolle. Können Sie hier die Verbindung zu AI Factory, zu Transparenz und Erklärbarkeit bei KI darstellen?

Michael Ehrmantraut: Die naheliegende Antwort adressiert den Aspekt, dass KI-Modelle nur dann eine fachlich gute Qualität erreichen, wenn die zugrundeliegenden Daten für Entwicklung, Training und Re-Training ebenfalls qualitativ hoch sind. Das ist aber eine zu einfache Antwort!

Durch die fortschreitende Digitalisierung und der damit verbundenen stärkeren Nutzung von KI für automatisierte Prozesse wird sich die typische Arbeitsweise der Fachbereiche zukünftig stark ändern. Dies zeigt sich in vier Bereichen.

Mitarbeiterinnen und Mitarbeiter der Fachbereiche werden immer mehr zu Data Scientisten, denn die Entwicklung von KI-Modellen erfordert sehr viel fachliche Expertise, um Accuracy, Fairness sowie Bias von Modellen während der Entwicklungsphase beurteilen zu können.

Die Entwicklung erfolgt auf Produktionsdaten, da bei der Entwicklung von KI nach Korrelationen von Daten gesucht wird, die man beim Start noch nicht kennt, weshalb synthetische Testdaten nur sehr schwer definiert werden können. Auch eine Anonymisierung wäre kontraproduktiv, da hierbei ja meist nicht nur der Name ersetzt wird, sondern weitere „Kunden-identifizierende Merkmale“ wie z.B. Geburtsdatum, -ort, Wohnort usw. verändert werden.

Data Scientists testen oftmals ihre Ideen auf Kopien der Datenbestände, es liegt dadurch eine Art Schatten-IT vor. Das Training von KI-Modellen muss aber auf den Originaldaten erfolgen und nicht auf Kopien, um auch die Anforderungen nach Rückverfolgbarkeit der Daten erfüllen zu können, wenn seitens der Regulierer Fragen zur Erklärbarkeit aufgeworfen werden.

Beim Datenzugriff müssen organisatorische Silos öfters überwunden werden als bisher. Denn je breiter die zugrundeliegende Datenbasis für die Suche nach Korrelationen ist, desto besser sind die Chancen, ein KI-Modell mit hoher Vorhersagegenauigkeit zu finden. Die meist fehlende Data Governance erschwert dies zusätzlich.

Diese vier Aspekte erfordern die folgenden vier Fähigkeiten einer zukünftigen Arbeitsumgebung für Fachbereiche: Data-Self-Service, Daten-Virtualisierung, erweiterte Zugriffsrechte für diese Originaldaten und einen Data Catalog, idealerweise mit automatischer Erfassung von Metadaten neuer Datenquellen. Und das sind genau die vier Key-Funktionalitäten einer Data Fabric, welche den Data Scientisten ein Self-Service auf die Daten ermöglichen.

Damit stellt die Data Fabric auch einen hervorragenden Enabler dar, um mit diesen Daten dann mit Hilfe der AI Factory hochwertige Modelle auf Basis qualitativ hochwertiger Daten zu entwickeln.

(ID:47695521)