Kommentar von Dr. Marco Peisker, Adesso AG Potenzial und Grenzen von Deep Learning im Versicherungsunternehmen

Autor / Redakteur: Dr. Marco Peisker / Nico Litzel |

Versicherer stehen weiterhin einer Vielzahl von Herausforderungen gegenüber. Sinkende Erträge – auch durch die aktuelle Kapitalmarktsituation – sind nur schwer durch Umsatzsteigerungen auf relativ gesättigten Märkten zu substituieren. Technische Fortschritte insbesondere im Bereich der Künstlichen Intelligenz können sich für die daraus resultierenden notwendigen Kostenoptimierungsmaßnahmen durchaus als hilfreich erweisen.

Anbieter zum Thema

Der Autor: Dr. Marco Peisker ist Managing Consultant der Adesso AG
Der Autor: Dr. Marco Peisker ist Managing Consultant der Adesso AG
(Bild: Adesso)

Selbstlernende Maschinen ermöglichen nicht nur die Unterstützung menschlicher Bearbeiter, sondern versetzen den Versicherer in die Lage, die menschliche Komponente in entsprechenden Prozessen vollständig durch künstliche Äquivalente zu substituieren.

Deep Learning: effizientes Konzept des Maschinellen Lernens

Künstliche Intelligenz – allen voran das maschinelle Lernen – stellt den digitalen Megatrend dar. Die Maschine steht nicht mehr in Abhängigkeit des durch menschliche Bearbeiter beschriebenen und bereitgestellten Wissens. Vielmehr ist diese in der Lage, Wissen aus eigener Erfahrung zu generieren. Effizientes Konzept des Maschinellen Lernens (ML) sind Künstliche Neuronale Netze (KNN). Dabei handelt es sich um einen die Informationsverarbeitung im menschlichen Gehirn imitierenden selbstadaptierenden Algorithmus.

Signale werden über eine Eingabeschicht („Input Layer“) entgegengenommen, eine Vielzahl verborgener Schichten („Hidden Layers“) verarbeitet und über eine Ausgabeschicht („Output Layer“) als Ergebniswert an die Umwelt zurückgegeben. Die Signalverarbeitung findet dabei vorrangig durch die gewichteten Verbindungen zwischen den Neuronen sowie diesen inhärenten Aktivierungsfunktionen statt.

Exemplarische Darstellung eines zweischichtigen KNN (mit den Gewichtungen w und den Aktivierungsfunktionen Theta)
Exemplarische Darstellung eines zweischichtigen KNN (mit den Gewichtungen w und den Aktivierungsfunktionen Theta)
(Bild: Adesso)

Die Effektivität des Netzes wird durch die Anzahl der Schichten beeinflusst, in denen die Neuronen angeordnet sind. Ein Netz, das aus einer vergleichsweisen hohen Zahl jener Schichten aufgebaut ist, wird als tiefes Netz bezeichnet. Die Anwendung eines solchen tiefen Netzes ist daher auch als Deep Learning bekannt.

Nach initialer Erstellung des Netzes wird in der Regel das Anlernen durch eine große Menge an vorhandenen Trainingsdaten durchgeführt, deren Ergebniswerte bereits bekannt sind. Bei jedem Durchlauf des Netzes wird der tatsächlich berechnete Ausgabewert mit dem erwarteten Ergebniswert verglichen und so der Fehlergrad kalkuliert. Durch eine sukzessive Anpassung der Verbindungsgewichtungen soll dieser Fehlergrad bei erneuten Durchläufen stetig verringert werden.

Der Grundgedanke besteht darin, dass ähnlich dem menschlichen Gehirn wichtige Verbindungen zwischen einzelnen Neuronen verstärkt, während sich als unwichtig erweisende Konnektoren schrittweise vernachlässigt werden. „What fires together, wires together“ hat Donald Olding Hebb bereits im Jahr 1949 als Teil der nach ihm benannten Lernregel formuliert. Nach Abschluss der Trainingsphase – das bedeutet nach einer hinreichenden Anzahl von Durchläufen mit den entsprechenden Lerndatensätzen und einem daraus resultierten hinreichend geringem Fehlergrad – kann das trainierte KNN in dem vorgesehenen Anwendungsgebiet eingesetzt werden. Das „angelernte Wissen“ ermöglicht es dem Netz so, selbstständig Entscheidungen zu treffen oder Klassifizierungen vorzunehmen.

Technologischer Status quo ermöglicht Einsatz von Deep Learning

Der theoretische Ansatz, Künstliche Neuronale Netze in der Informationsverarbeitung zu verwenden, besteht seit vielen Jahrzehnten. Die aufwendige softwaretechnische Umsetzung sowie Restriktionen der Hardware, die insbesondere die Vielzahl nicht-trivialer Rechenoperationen nicht effizient ausführbar machten, verhinderten jedoch lange Zeit den breiten Einsatz dieses Paradigmas. Mit den Fortschritten in der Steigerung der Rechenleistung von Computersystemen ist letzteres Hindernis in der jüngsten Vergangenheit überwunden worden.

Ebenso erhöht der Grundgedanke, rechenintensive Operationen auch auf Grafikprozessoren (GPUs) ausführen zu lassen (sog. CUDA), die Leistungsfähigkeit der eigenen PCs bezogen auf die Arbeit mit KNNs um ein Vielfaches. Gleichzeitig haben führende Technologiekonzerne Programmbibliotheken erstellt, die es versierten Entwicklern ermöglichen, mit vergleichsweise geringem programmatischem Aufwand, komplexe KNNs zu erstellen. Damit sind die Rahmenbedingungen geschaffen, dass auch Unternehmen, deren Kernkompetenzen weniger in der Schaffung technologischen Innovation verortet sind, aktiv und selbstbestimmt unter Verwendung der eigenen vorhandenen Ressourcen, die Chancen wahrnehmen können, die der Einsatz Künstlicher Intelligenzen mit sich führt.

Den einführenden Erläuterungen zu Deep Learning folgend könnte grundsätzlich jedes Entscheidungsproblem ein mögliches Einsatzgebiet Künstlicher Neuronaler Netze darstellen, das im Status quo durch einen menschlichen Entscheidungsträger mittels logischer Herleitung auf Grundlage einer Vielzahl von Parametern zu lösen ist, und für das in der Vergangenheit vergleichbare Entscheidungssituationen vorlagen. Der Einsatz Künstlicher Neuronaler Netze erscheint nur sinnvoll, wenn eine Vielzahl von Entscheidungen schnell und unter Berücksichtigung einer hohen Zahl vorliegender Daten getroffen werden müssen. Im Idealfall handelt es sich bei dem Einsatzgebiet um eine 2-Tupel-Entscheidung. Hauptziel sollte es immer sein, den diesem Entscheidungsproblem zugrundeliegenden Prozess zu optimieren und im Idealfall ohne menschliche Eingriffe automatisiert effizient ausführbar zu machen.

Inputmanagement in Versicherungsunternehmen

Einen potentiellen Anwendungsbereich stellt das Inputmanagement im Versicherungsunternehmen dar. Im Rahmen des Inputmanagements werden eingehende Dokumente digitalisiert und gemeinsam mit bereits digital vorliegenden Dokumenten wie erhaltenen E-Mails klassifiziert. Menschliche Entscheidungsträger ordnen diese Schriftstücke abhängig der inhärenten Informationen entsprechenden Geschäftsbereichen, Geschäftsvorfällen sowie den verantwortlichen Bearbeitungseinheiten zu und leiten die klassifizierten Dokumente in die zugehörigen virtuellen Postkörbe weiter, bevor diese abschließend archiviert werden.

Für diesen grundlegenden Prozess erfolgen im Versicherungsunternehmen täglich einige tausend Durchläufe. Es handelt sich demnach um ein Entscheidungsproblem, das für den Einsatz einer Künstlichen Intelligenz prädestiniert scheint. Eine Vielzahl von Daten wird durch humane Bearbeiter wiederholend ausgewertet und klassifiziert. Zusätzlich liegt ein großer Bestand historischer archivierter Datensätze vor, die ein effektives Trainieren eines Künstlichen Neuronalen Netzes ermöglichen würden.

Klassifizierungen finden auch im Prozess der Betrugserkennung statt. Insbesondere Schadensfälle mit den zugehörigen Vertrags- und Partnerdaten, aber auch unter Einbezug von Informationen aus externen Datenquellen werden oftmals manuell oder unterstützt von einfachen Regelwerken durch menschliche Einheiten analysiert und klassifiziert. Der jeweilige Sachbearbeiter trifft dabei die Entscheidung, in wieweit eine Expertennachprüfung beziehungsweise Ermittlung notwendig oder die direkte Regulierung oder Ablehnung möglich ist. Im Idealfall durchläuft zumindest jede eingegangene Schadensmeldung vor einer potentiellen Regulierung den Prozess der Betrugserkennung.

Betrugserkennung und Betrugsermittlung

Jährlich annähernd zehn Millionen Schadenfällen allein in der Kfz-Versicherung (GDV 2018) begründen die Annahme einer sehr hohen Anzahl von Prozessdurchläufen. Im Falle einer Aussteuerung aufgrund von Auffälligkeiten schließt sich dem Prozess der Betrugserkennung der Prozess der Betrugsermittlung an. Ein Betrugsexperte versucht dabei, unter Zuhilfenahme aller diesem zur Verfügung stehenden Informationen den Betrugsverdacht zu validieren und bestenfalls zu beweisen. Zur effizienten Investigation werden neben der Bewertung auch der Grund für die erfolgte Aussteuerung sowie etwaige Handlungsempfehlungen benötigt. Ein klassisches KNN ist jedoch nicht dazu in der Lage, das Zustandekommen der Ergebnisse nachzuvollziehen. Nicht nur, dass sich die Bewertung dadurch im konkreten Fall für den menschlichen Bearbeiter als schwierig zu überprüfen darstellt, viel mehr muss der entsprechende Betrugsermittler trotz bereits erfolgter maschineller Analyse die Gesamtheit aller vorliegenden und verfügbaren Informationen erneut manuell untersuchen.

Eine Verbesserung des vollständigen Betrugsprozesses kann daher durch den Einsatz Künstlicher Neuronaler Netze nur ansatzweise erfolgen. Die Optimierung des Betrugserkennungsprozesses durch Maschinelles Lernen führt durch die Anwendung dieses konkreten Ansatzes kaum zu einer avisierten Prozesseffizienz.

Deep Learning nicht die grundsätzliche Antwort

Künstliche Intelligenz, so die Aussage von Christopher M. Bishop, Director Microsoft Research Lab Cambridge, stellt die „größte Transformation der Informatik seit Erfindung des Computers [dar]. [...] Nahezu alle Aspekte unseres Lebens werden sich ändern.“ Diese Veränderungen werden unweigerlich auch die Versicherungsunternehmen betreffen. Insbesondere der Einsatz Künstlicher Neuronaler Netze wird viele Prozesse dahingehenden optimieren, dass Entscheidungen vollautomatisiert durchgeführt werden können. Menschliche Entscheidungsträger werden durch effizientere technische Äquivalente substituiert. Prädestiniert für deren Einsatz sind insbesondere jene Prozesse, die massenweise durchlaufen werden und für deren Entscheidungsfindung ausreichend viele historische Klassifizierungen vorliegen, aus denen das Netz die Lösung zukünftiger Problemstellungen ableiten kann.

Künstliche Neuronale Netze sind selbstoptimierende Algorithmen, die letztendlich eine Black Box darstellen. Der sinnvolle Einsatz von Deep Learning findet im Versicherungsunternehmen daher nicht nur bei jenen Prozessen seine Grenzen, bei denen die grundlegenden Anforderungen an Trainingsdaten und die erläuterte Entscheidungsproblematik nicht erfüllt sind, sondern insbesondere auch bei jenen Prozessen, bei denen Transparenz bezüglich der Gründe für das spezifische Verhalten der Künstlichen Intelligenz notwendig sind. Die Wissenschaft setzt aktuell zunehmend einen Schwerpunkt auf die Entwicklung von „Erklärbarer Künstlicher Intelligenz (Explainable Artificial Intelligence XAI)“. Solange sich diese Ansätze jedoch noch in der Erforschung befinden, werden bei jenen Prozessen Künstliche Intelligenzen den menschlichen Experten im Versicherungsunternehmen nicht ersetzen, sondern maximal unterstützen können. In diesen Bereichen werden Mensch und Maschine weiter in symbiotischer Beziehung wirken können und müssen.

(ID:46163061)