Kommentar von Rudolf Scheller, FM Global

So deckt Predictive Analytics Risiken auf

| Autor / Redakteur: Rudolf Scheller / Nico Litzel

Der Autor: Rudolf Scheller ist Chief Underwriting Technical Specialist beim Industriesachversicherer FM Global
Der Autor: Rudolf Scheller ist Chief Underwriting Technical Specialist beim Industriesachversicherer FM Global (Bild: FM Global)

Big Data Analytics gehört auch in der Versicherungsbranche zu den heiß diskutierten Themen. Laut einer aktuellen Befragung des IT-Unternehmens Infosys wollen 65 Prozent der Befragungsteilnehmer aus dem Versicherungsbereich in Big-Data-Lösungen investieren, um mit der technischen Entwicklung Schritt zu halten. Fakt ist jedoch auch, dass sich die Anwendungsfälle innerhalb der Branche stark unterscheiden.

Das Versprechen von Predictive-Analytics-Verfahren besteht darin, durch die fortschrittliche Analyse von Daten sehr genau bestimmte Entwicklungen voraussagen zu können. Ziel des Managements ist es, faktenbasiert strategische Entscheidungen für das Unternehmen zu treffen. Da die Versicherungsbranche traditionell datengetrieben ist, wundert es nicht, dass sie eine gewisse Affinität zu solchen Methoden besitzt. Es sieht zwar oft so aus, als würden sich die Use Cases für Analytics fast ausschließlich um die Identifikation von Zielgruppen und deren passgenaue Marketing-Ansprache mithilfe von automatisch generierten Informationen drehen.

Auch die Nutzung im Bereich der Betrugsprävention ist durchaus bekannt. Der eigentliche Zweck sollte jedoch zum Wohl der Kunden deutlich tiefer gehen. Bei Industriesachversicherern beispielsweise werden mit Unterstützung von Predictive Analytics Risikoszenarien per Simulation berechnet und dann entsprechende Beratungsleistungen gegenüber den Kunden erbracht, um individuelle Investitionen in die Resilienz des zu versichernden Unternehmens zu ermöglichen. So werden per Data Mining und anderen statistischen Verfahren mögliche Schäden und deren Kosten eruiert.

Der Kunde steht im Fokus, nicht das Marketing

Entscheider in der Versicherungswirtschaft stehen jedoch vor der Herausforderung, immer größere Mengen von Daten zu verarbeiten. Gleichzeitig geht es darum, die Bedürfnisse der Kunden im Auge zu behalten. Viele Zusammenhänge können theoretisch erfasst und analysiert werden – aber nicht alle sind geschäftsrelevant für die Kunden. Versicherer sollten stärker auf Prognosen basierende Modelle in ihr Geschäft einbinden und diese in das tägliche Geschäft integrieren, um künftige Entwicklungen am Markt zu erkennen, vorwegzunehmen und zeitnah reagieren zu können.

Der Versicherungsmarkt selbst ist seit einigen Jahren starken Veränderungen unterworfen. So stiegen beispielsweise die Kosten für Schadenregulierung, verursacht durch Naturkatastrophen, in den vergangenen Jahren kontinuierlich an. Hoher Kostendruck und immer geringere Margen sind die Folgen für die Versicherer. Wettbewerbsvorteile aus fortschrittlichen Analysemethoden zu generieren und künftige Haftungsrisiken mit Großschadenpotenzial besser vorhersagen zu können, ist vor diesem Hintergrund ein notwendiges wie zielführendes Vorgehen.

Predictive Analytics optimiert Underwriting-Prozesse

Underwriting-Prozesse basierten in der Vergangenheit stark auf Erfahrungswerten. Jedoch vor allem neue Arten von Risiken sind für die Versicherungsunternehmen kompliziert einzuschätzen. Der Einsatz von Predictive Analytics im Underwriting steigert nicht nur die Qualität und Effizienz der Risikoprüfung. Risiken werden auf diese Art auch deutlich schneller erkennbar.

Predictive Analytics dient dazu, komplizierte Strukturen, Zusammenhänge oder Besonderheiten in großen Datenmengen aufzudecken. Die daraus abgeleiteten Modelle werden in der Folge mit realen Daten und Algorithmen in Bezug auf ihre Prognosegüte geprüft. Dieser Prozess wird als Scoring bezeichnet. Beim Scoring geht es zunächst darum, ein Verständnis des fachlichen Kontextes zu gewinnen. Hierzu zählt die Definition der fachlichen Zielsetzung des Modells bzw. der sogenannten Scorecard. Dabei sind vor allem die zu prognostizierenden Ereignisse und der zu betrachtende Prognosezeitraum relevant. Danach geht es um die Datenbereitstellung und -aufbereitung.

Zu klären ist hier, welche Daten aus fachlicher Sicht einzubeziehen sind und in welchem Umfang sie überhaupt vorhanden sind. Auch die gegebenenfalls notwendige Beschaffung von ergänzenden externen Daten ist hier zu beleuchten. Dann geht es um die Auswertung der Datenqualität und um die gesetzeskonforme Einhaltung möglicher Vorbehalte des Datenschutzes sowie die Separierung der Daten in Trainingsdaten zur Modellierung und in unabhängige Testdaten zur Validierung.

Die Gestaltung der Scorecard

Bei der Modellierung der Scorecard wiederum geht es um die Etablierung eines statistischen, kontextbezogenen Prognosemodells, das den Einfluss von Charakteristika auf ein Ereignis bzw. reaktives Ereignis auf Basis von vorhandenen Beobachtungen analysiert und Wahrscheinlichkeiten aufgrund des Modells berechnet. Im Normalfall bilden Scorecards ein multivariates Modell ab, in dem durch mathematische Verknüpfung verschiedene Faktoren zu einem Modell zusammengeführt werden. Hier kommen unterschiedliche Data-Mining-Verfahren wie neuronale Netze, Entscheidungsbäume und logistische Regressionen zum Einsatz. Welches Verfahren für das jeweilige Prognosemodell am besten geeignet ist hängt sowohl von den zur Verfügung stehenden Daten ab als auch von der Fachbezogenheit des zu analysierenden Ereignisses.

Kontinuierliche Verbesserung der Prognosen

Zur systematischen Optimierung des verwendeten Prognosemodells werden die strukturellen Einflüsse der betrachteten Merkmale analysiert und nicht signifikante Besonderheiten herausgefiltert. Die Bewertung der Prognosegüte erfolgt über die unabhängige Validierungsmenge und mit ihr wird die Aussagekraft der Scorecard gemessen und anhand von etablierten Kennzahlen die Qualität der Prognose bewertet. Nach all diesen Schritten kommt die Scorecard in den jeweiligen Einsatzszenarien zur Anwendung. Dies bedeutet, dass sie in die operativen Geschäftsprozesse integriert wird und Prognosen auf Basis aktueller Daten möglich werden. Die dauerhafte Bewertung der Prognosequalität und die kontinuierliche Überprüfung des statistischen Modells, das in regelmäßigen Abständen angereichert und validiert wird, um die Prognosegüte stetig zu verbessern, ist Teil des Prozesses.

Datenbasis aus erster Hand

FM Global verbindet seine Erfahrung im Underwriting, im Schadenmanagement und im Ingenieursbereich mit diesen modernen statistischen Verfahren. Auf diese Weise werden etwa 700 Datenpunkte aus erster Hand generiert, die aus jährlich über 100.000 Begehungen bei Kunden an 60.000 Standorten resultieren. Auf diese Weise wird auch direkt garantiert, dass die Qualität und Validität der Daten hoch ist und sie entsprechend strukturiert vorliegen. Dadurch entsteht ein Benchmark für die Risikoqualität einzelner Standorte. Kunden finden heraus, an welchen ihrer Standorte Schäden am wahrscheinlichsten auftreten werden, in welchen Bereichen, beispielsweise EDV-Räumen, dies geschehen wird und welche einzelnen Maschinen von einem Ausfall betroffen sein können. So lässt sich erkennen, dass im Analyseverfahren hervorgehobene Standorte ein 15-fach höheres Risiko besitzen, von einem Ausfall betroffen zu sein, als solche, die als „unbedenklich“ eingestuft wurden. Bei den analysierten Maschinen wiederum ist die Ausfallwahrscheinlichkeit fünf Mal höher als bei den nicht als betroffen identifizierten Maschinen.

Viele Parameter definieren die Risikoqualität

Die Data-Mining-Verfahren, die der Analyse zugrunde liegen, berücksichtigen eine Vielzahl von Faktoren, die durch das Regressionsmodell bewertet werden. Im Wesentlichen gehören hierzu Parameter wie Konstruktion, Belegung, Ausstattungsfaktoren, Schutzstatus, Expositionen sowie Punkte, die Aktivitäten des Managements erfassen, einschließlich der Frage, wie lange bereits existierende Empfehlungen nicht umgesetzt wurden. Die Schadenhistorie am Standort spielt ebenfalls eine Rolle im Regressionsmodell. Die gleichen Mängel, die in den Risikoberichten enthalten sind, sind diejenigen, die die Risikoqualität und somit die Tendenz des Standortes zum Schaden fördern. Wie bei jeder Priorisierung der Risikoverbesserung sollte der Fokus eher darauf liegen, schlechte Risiken zu verbessern als bereits „gut“ definierte Risiken noch optimaler zu gestalten.

Fazit

Durch den Einsatz von Predictive Analytics ist die Versicherungswirtschaft heute in der Lage, die Kunden sehr gezielt auf Mängel an den eigenen Standorten und bei den jeweiligen Anlagen hinzuweisen. Die Qualität der Simulationen und Prognosen resultiert jedoch nicht nur aus der Leistungsfähigkeit von Algorithmen. Erst der Einsatz von Ingenieuren vor Ort gepaart mit deren jahrelanger Erfahrung und Know-how führt zu einem Datensatz, der einen Unterschied in der Risikoanalyse ausmacht. Das Ergebnis sind gezielte Investitionen in die Reduzierung und Beseitigung dieser Risiken sowie die Stärkung der Unternehmensresilienz.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45251008 / Analytics)