5

Click here to load reader

Predictive Analytics bei Vertriebssteuerung und -controlling: Status Quo und Perspektiven in der Versicherung

Embed Size (px)

DESCRIPTION

[16.04.2012] Zurzeit kann man eine Renaissance der Data Mining-Idee beobachten. Nachdem Anfang der 2000er Jahre ein wesentlicher Baustein der Business Intelligence gesehen wurde, war es in den letzten Jahren zunehmend ruhig um dieses Thema geworden. Nun taucht das Konzept im Kontext von Business Analytics oder Predictive Analytics wieder auf. Gartner sieht in seinem aktuellen Hype Cycle das Thema Predictive Analytics kurz vor der Erreichung des Plateau der Produktivität. In Zeiten der Finanzkrise und eines sich dramatisch wandelnden Marktes war und ist der Einsatz von zukunftsorientierten Prognosemodellen ein aktuelles Thema auch in der Versicherungsbranche. Insbesondere BI Anbieter wie SAS und IBM (SPSS) setzten bei der Weiterentwicklung ihrer BI-Plattformen konsequent auf das Thema Predictive Analytics – und bieten analytische Modelle und Lösungen für Versicherungen. Welche Einsatzbereiche finden sich bereits heute im Spektrum von Versicherung für Predictive Analytics, welche Chancen und - welche Restriktionen – sind diesem Konzept gesetzt?

Citation preview

Page 1: Predictive Analytics bei Vertriebssteuerung und -controlling: Status Quo und Perspektiven in der Versicherung

ZfV 311

sind. Spätestens seit der Griechenland-Krisesind Staatsanleihen – eine bisher als sichergeltende Assetklasse und somit ein Hauptin-strument des Assetmanagements von Versi-cherungen – durchaus mit erheblichen Risi-ken belastet. Niedrige Zinsen führen zu ern-sten Problemen, da Versicherungen daraufangewiesen sind ihre Beitragseinnahmenwirtschaftlich anzulegen, um künftige zuerwartende Risiken zu decken und Mindest-verzinsungszusagen halten zu können.

Anderseits verändert sich auch der Versi-cherungsmarkt selbst. Die Zeiten des stetigenWachstums der Versicherungen sind –zumindest in den Industriestaaten – vorbei.In einem gesättigten Markt stagnieren dieBeitragseinnahmen. Aufgrund der Globali-sierung drängen im Kampf um mehr Mark-tanteile neue internationale Anbieter in dendeutschen Markt. Zugleich stiegen dieKosten der Schadenregulierung in den letz-ten Jahren stetig an. Ein hoher Kostendruckund damit eine zunehmend geringe Margefür die Versicherung ist die Folge.

Abbildung 2

Der Wettbewerb um die Versicherungs-kunden wird härter und auch die Kundenhaben sich verändert. Der traditionelle Versi-cherungskunde – langfristig konservativ ori-entiert, mit allen Produkten bei einem Versi-cherer versichert und einmal gewonnen, treuan seine Versicherung gebunden – wirdzunehmend von neuen Kundentypen ver-drängt.

Da gibt es den vertragsorientierten Kun-dentyp, der dem Best-of-Breed-Ansatz fol-gend, kostenorientiert seine Versicherungsri-siken beim jeweils attraktivsten Versichererabdeckt. Ein Trend der sich maßgeblich auf

Prediction – oder das Vorhersehendes künftig zu Erwartenden.

Unter dem Begriff „Predictive Analytics“werden im allgemeinen Sprachgebrauch diezukunftsorientierte Datenanalyse sowie dasErstellen von Prognosemodellen verstanden.Predictive Analytics wird dem Themenbe-reich „Business Analytics“ zugerechnet, derhäufig als die Weiterentwicklung oder Erwei-terung der klassischen Business Intelligencebezeichnet wird. Gartner spricht hier tref-fend vom „Shift from measurement to analy-sis, forecasting and optimization“.

Abbildung 1

Entscheidungsträger werden aufgrundimmer stärker wachsender und zu verarbei-tender Datenmengen gezwungen sein, aufimmer stärker prognoseorientierte Modellezu setzen und diese auch in operativeren Ent-scheidungsprozessen systematisch zu nutzen,um künftige Entwicklungen am Markt zuantizipieren und rechtzeitig agieren zu kön-nen. Bereits seit knapp zwanzig Jahren wer-den daher Predictive Analytics (PA) Werkzeu-ge insbesondere in Branchen, wie der Tele-kommunikation, des Handels, des Bankings –aber auch in der Versicherungswirtschafterfolgreich eingesetzt.

Der Versicherungsmarkt im Umbruch

Nicht erst seit dem Ausbruch der Finanz-krise im Jahr 2009 vollzieht sich im Versiche-rungsmarkt ein dramatischer Wandel. Einer-seits trifft die Finanzkrise die Versicherungenhart, da sich aufgrund der deutlich erhöhtenVolatilität der Marktbewertungen das Anla-gerisiko stark erhöht hat bzw. die Anla-gemöglichkeiten für die eingenommenenVersicherungsbeiträge stark eingeschränkt

Axel Kummer / Falk Lehmann

das Internet mit seinen Vergleichsportalenund die daraus resultierende Transparenz derVersicherungsangebote stützt. Für diese Kun-den werden kostengünstige Standardproduk-te angeboten – die ohne komplizierte Mecha-nik quasi industrialisiert erbracht werdenkönnen.

Abbildung 3

Dem Gegenüber steht eine zweite Kun-dengruppe, für die nicht der Preis, sondernvielmehr die erbrachte Leistung im Vor-dergrund steht. Dieser individualistischeKundentyp erwartet individuell auf seinepersönlichen Bedürfnisse zugeschnittene Ver-sicherungsprodukte und vor allem Premium-Services. Für diese spürbaren Mehrwerte ister bereit höhere Beiträge zu zahlen. Um sichdiesen Veränderungen und Entwicklungenstellen zu können, sind die Versicherer im vielstärkeren Maße als in der Vergangenheitgezwungen, frühzeitig die richtigen Entschei-dungen zu treffen, die richtigen Produkte,zur richtigen Zeit, über den richtigen Ver-triebskanal dem richtig ermittelten Kunden-typ anzubieten und vor allem ihre Servicesnoch stärker an den Kundenbedürfnissenauszurichten.

Heutige Anwendungsgebiete von Pre-dictive Analytics in der Versicherung

Die Nutzung von mathematisch, statischenVerfahren für zukunftsorientierten Prognose-modelle ist kein neues Thema in der Asseku-

Predictive Analytics bei Vertriebssteuerung und -controlling: Status

Quo und Perspektiven in der VersicherungZurzeit kann man eine Renaissance der Data Mining-Idee beobachten. Nachdem Anfang der 2000er Jahre ein wesentlicher Baustein der Busin-

ess Intelligence gesehen wurde, war es in den letzten Jahren zunehmend ruhig um dieses Thema geworden. Nun taucht das Konzept im Kon-

text von Business Analytics oder Predictive Analytics wieder auf. Gartner sieht in seinem aktuellen Hype Cycle das Thema Predictive Analytics

kurz vor der Erreichung des Plateau der Produktivität. In Zeiten der Finanzkrise und eines sich dramatisch wandelnden Marktes war und ist der

Einsatz von zukunftsorientierten Prognosemodellen ein aktuelles Thema auch in der Versicherungsbranche. Insbesondere BI Anbieter wie SAS

und IBM (SPSS) setzten bei der Weiterentwicklung ihrer BI-Plattformen konsequent auf das Thema Predictive Analytics – und bieten analyti-

sche Modelle und Lösungen für Versicherungen. Welche Einsatzbereiche finden sich bereits heute im Spektrum von Versicherung für Predic-

tive Analytics, welche Chancen und - welche Restriktionen – sind diesem Konzept gesetzt?

Axel KummerCOO, metafinanz Informationssysteme GmbH

Falk LehmannHead of Business Intelligence, metafinanz Informations-

systeme GmbH

Page 2: Predictive Analytics bei Vertriebssteuerung und -controlling: Status Quo und Perspektiven in der Versicherung

ZfV

ranz. Zumindest nicht bei den größeren Ver-sicherern. In fast allen großen Versicherun-gen finden sich heute schlagkräftige Statisti-kabteilungen, die sich dediziert auch mit Pre-dictive Analytics beschäftigen. WesentlichePrognose- und Analyse-Schwerpunkte liegenheute vor allem auf dem analytischen Custo-mer Relationship-Management bzw. derCustomer Intelligence sowie der damit engverbunden Vertriebssteuerung.

Häufige Fragestellungen, die mit analyti-schen Modellen prognostiziert werden, sindz.B.:

Customer Lifetime Value / Kundenwert: – In welchen Segmenten und wie entwickelt

sich künftig der Kundenstamm? – Mit welchen Strategien lässt sich das

zukünftige Kundenverhalten beeinflussen?– Welche Entscheidungsmerkmale sprechen

dafür, dass Endkunden ein Produkt kau-fen?

– Über welche Kommunikationskanäle las-sen sich in den unterschiedlichen Kunden-segmenten am besten ansprechen?

– Wie lassen sich Kundensegmente langfri-stig loyalisieren und nachhaltig entwickeln?

– Wie können Budget und Ressourcen beikundenorientierten Investitionsvorhabenam effektivsten eingesetzt und gesteuertwerden?

Churn Management/ Attrition: – Welche Kunden werden wahrscheinlich in

nächster Zeit kündigen bzw. sind stornoge-fährdet?

– Wie lassen sich unzufriedene Kundenerkennen bevor sie eine Kündigungsabsichtäußern?

– Welche Maßnahmen zur Kündigungsver-hinderung oder gar Kündigerrückgewin-nung sind unter Berücksichtigung ökono-mischer Kennzahlen, wie z.B. des Kunden-wertes, in der jeweiligen Konstellation amerfolgversprechendsten?

Lead Management/ Aktionsmanagement– Wie kann die Reichweite und Wirksamkeit

von Marketing Kampagnen erhöht wer-den?

– Up- und Cross-Selling: Welche Kundenhaben eine hohe Abschlussaffinität hin-sichtlich weiterer ausgewählter Produkte?

– Zu welchem Anlass hat ein Vertreterbesuchdie größte Wirksamkeit?

Vertriebsplanung / Standortplanung– Wie entwickeln sich die Kunden regional? – Welche Vertriebswege sind für welche Pro-

dukte und Kundensegmente effektiv undeffizient?

– Welche Agenturstandorte werden woregional benötigt?

– Welche Agenturen und Makler werdenkünftig welchen Umsatz mit welchem Pro-dukt erwirtschaften?

– Welche Produkte müssen sich wie oft ver-kaufen, um künftigen Entwicklungen desMarktes zu begegnen?

– Wie entwickelt sich der Markt im ZeitraumX für bestimmte Produkte?

Eingesetzte Verfahren und Modelle

Zur Beantwortung der fachlichen Fragen-stellungen werden unterschiedliche mathe-matisch-statistische Verfahren des (datenge-triebenen) Data Mining und der hypothesen-basierten multivariaten Statistik genutzt. DerEinsatz von Data Mining dient hierbei derEntdeckung von komplexen Strukturen,Zusammenhängen oder Besonderheiten ingroßen Datenmengen. Die daraus abgeleite-ten Hypothesen/ Modelle werden dann mitHilfe von realen Daten und Algorithmen hin-sichtlich ihrer Prognosegüte überprüft.

Abbildung 4

Dieser in der Praxis häufig auf dem„Cross-Industry Standard Process for DataMining“ (CRISP-DM) basierende Prozesswird im Kontext der Predictive Analytics alsScoring bezeichnet. Das prinzipielle Vorge-hen beim Scoring lässt sich vereinfacht durchfolgende Schritte darstellen:

Verständnis des fachlichen Kontextes– Klärung der fachlichen Zielsetzung des

Prognosemodells (Scorecard): Insbesonde-re der fachlichen Spezifikation des zu pro-gnostizierenden Ereignisses sowie des avi-sierten Prognosezeitraumes.

– Festlegung des künftigen Einsatzszenarios:In welchen (operativen) Prozessen soll dieScorecard eingesetzt werden?

– Festlegung von Kriterien der Wirksamkeitder Scorecard: Was soll mit dem Score-card-Einsatz erreicht werden und wie lässtsich das Ergebnis bewerten?

Datenbereitstellung und –aufbereitung– Klärung welche Daten aus fachlicher Hin-

sicht zu berücksichtigen sind, in welchemUmfang diese überhaupt (technisch) vor-handen sind und ob zusätzlich extern zubeschaffene Daten, wie zum BeispielMarkt- und Milieudaten benötigt werden,

– Analyse der Datenqualität der zur Modell-bildung heranzuziehenden Daten,

– Ggf. Umsetzung und Einhaltung möglicherRestriktionen des Datenschutzes,

– Separierung der Daten in Trainingsdatenzur Modellierung und in von den Trai-ningsdaten unabhängige Testdaten zurValidierung.

Scorecard-Modellierung– Aufbau eines statistischen, kontextbezoge-

nen Prognosemodells, das den Einfluss vonMerkmalen auf ein Ereignis/Gegenereignis(bei den meisten Einsatzgebieten vonScorecards handelt es sich um die Vorher-sage zweier Ausprägungen wie bspw.„Kunde kündigt“ und „Kunde kündigtnicht“) auf Basis von vorhandenen Beob-achtungen analysiert und Wahrscheinlich-keiten aufgrund des Modells berechnet.

– In der Praxis bilden Scorecards häufig einmultivariates Modell ab, in dem durch pas-sende mathematische Verknüpfung ver-schiedene Merkmale zu einem Modellzusammengeführt werden.

– Zum Einsatz kommen unterschiedlichsteData-Mining-Verfahren, wie zum BeispielNeuronale Netze, Entscheidungsbäumeund logistische Regressionen.

– Welches Verfahren für das jeweilige Pro-gnosemodell am besten geeignet ist hängtsowohl von den zur Verfügung stehendenDaten ab als auch von der Fachlichkeit deszu analysierenden Ereignisses.

Scorecard-Evaluation– Zur kontinuierlichen Verbesserung des

betrachteten Prognosemodells werdensystematisch die strukturellen Einflüsse derbetrachteten Merkmale analysiert undnicht signifikante Besonderheiten heraus-gefiltert.

– Bewertung der Prognosegüte: Mittels derunabhängigen Validierungsmenge wird dieAussagekraft der Scorecard gemessen undanhand von etablierten Kennzahlen diePrognosegüte bewertet.

Scorecard-Einsatz– Anwendung der Scorecard in den definier-

ten Einsatzszenarios, d.h. Einbettung in dieoperativen Geschäftsprozesse und Durch-führung der Prognose auf Basis aktueller(täglicher, wöchentlicher oder monatlicher)Daten.

– Kontinuierliche Messung der Prognosegüteund Wartung des statistischen Modells, dasin regelmäßigen Abständen immer weitertrainiert und validiert wird, um die Pro-gnosegüte stetig zu verbessern.

Dieses Vorgehen lässt sich in vielen moder-nen Versicherungsunternehmen finden undist in diesen seit mehreren Jahren etabliert.Obwohl ein etabliertes Standardvorgehen

Page 3: Predictive Analytics bei Vertriebssteuerung und -controlling: Status Quo und Perspektiven in der Versicherung

ZfV

existiert, sind darüber hinaus eine Fülle vonEinflussfaktoren zu managen, die über denerfolgreichen Einsatz von Predictive Analy-tics in der Versicherungsbranche entschei-den.

Kritische Erfolgsfaktoren

Von zentraler Bedeutung für den Erfolgeiner entwickelten Scorecard sind insbeson-dere:– die Klärung der fachlichen Zielsetzung,– die Auswahl des passenden mathematisch-

statistischen Modells,– die Qualität der zugrundeliegenden Daten-

basis und– die richtige Interpretation der erzielten

Prognoseergebnisse und der daraus abge-leiteten Maßnahmen.

Das hört sich auf den ersten Blick trivialan, ist es aber in keiner Weise. In der Praxiszeigt sich drüber hinaus, dass die Progno-següte – und damit der Nutzen - stark mit derversicherungsfachlichen und mathematisch-statistischen Kompetenz der durchführendenData Mining Spezialisten korrelieren.

Im Versicherungsumfeld kommen im Hin-blick auf die benötigten Kunden- und Ver-triebsdaten einige weitere branchenspezifi-sche Besonderheiten hinzu. Im modernenVersicherungsvertrieb werden unterschied-lichste Vertriebswege, wie AO-Vertreter,Makler, Strukturvertriebe, Onlineplattfor-men, Internet oder B2B-Partner, wie z.B.Autohäuser oder Automobilhersteller,genutzt. Die Beschaffung (und Standardisie-rung) der zur Modellentwicklung und–anwendung notwendigen Vertriebsdatenstellt hierbei eine erhebliche Herausforde-rung dar. Erschwerend wirkt hierbei auch dierechtliche Unabhängigkeit der Vertreter-schaft, die als selbständige Handelsverteterrechtlicher und wirtschaftlicher Eigentümerihrer Daten sind.

Zusätzlich schränken die an die Versiche-rung gestellten datenschutzrechtlichen Anfor-derungen sowohl den Umfang als auch dieQualität der zur Analyse heranziehbarenDaten maßgeblich ein. Vor allem Mehrspar-ten-Versicherungen, in denen die einzelnenSparten Sach-, Kranken- und Lebensversi-cherung in rechtlich selbstständigen Unter-nehmen organisiert sind, haben gerade imBlick auf personenbezogene Daten strengeRegeln zu befolgen.

Der Prozess der Scorecard-Modellierungist selbstverständlich toolgestützt und basiert

auf dem Einsatz von statistischen Werkzeu-gen. Eigenständige Data Mining Lösungen,wie beispielsweise des SAS Enterprise Miner6.2 oder des IBM SPSS Modeler 14, sindzurzeit jedoch in den Versicherungen nochgering vertreten, da mit Einsatz dieser Werk-zeuge teilweise beträchtliche Investitionenverbunden sind. Daher kommen bei derScorecard-Entwicklung in der Assekuranzhäufig die bereits für andere Zwecke einge-setzten statistischen Werkzeuge, wie beispiels-weise SAS| STAT zum Einsatz.

Der Einsatz von echten Data Mining Sui-ten kann allerdings zu einer Erhöhung derScoring-Produktivität führen, stellt aber –zumindest zurzeit - aus Sicht vieler Versiche-rer noch keinen echten kritischen Erfolgsfak-tor dar, da auch mit den etablierten statisti-schen Werkzeugen gleichwertige Ergebnisseerzielt werden können. Der von einigen DataMining-Anbietern verfolgte Ansatz in ihrenSuiten vorkonfigurierte versicherungsspezifi-sche Prognosemodelle bereitzustellen, um dieEinstiegshürden für kleinere Versicherungenzu senken, ist allerdings Angesichts des star-ken Einflusses der notwendigen Kombinati-on von Fach- und Statistikwissen der Analy-sten sowie der jeweiligen Heterogenität derVersicherer hinsichtlich Prognose-Inputdaten– zumindest zu hinterfragen.

Ein echter Fortschritt in der Toolunterstüt-zung zeichnet sich indessen an anderer Stelleab: Durch den immer breiter werdendenEinsatz von Prognosemodellen, steigt auchdie Komplexität und Vielzahl der in die Ana-lysen einbezogenen Datenquellen – dieSicherstellung der Datenqualität gewinntsomit zunehmend an Gewicht. Eine Entwick-lung, der durch die Anbieter durch die Inte-gration von Data Quality Lösungen in ihreBI Suiten Rechnung getragen wird.

Gerade in kundenfokussierten Prognosen,deren Ergebnis häufig zu direkter Kommuni-kation oder einer (mit Kosten verbundenen)Interaktionen mit dem Kunden führt, ist einequalitativ hochwertige – systematisch qua-litätsgesicherte – Kundendatenbasis ein abso-lutes Muss. Wird hier zu wenig getan, wirktschnell das GIGO-Prinzip – „Garbage In,Garbage Out“. Die komplexesten und hoch-entwickeltsten Prognosemodelle nützen nur,wenn qualitativ hochwertige Daten dieGrundlage der Analyse und Prognose sind.

Die wichtigste Innovation stellt jedoch dieimmer stärkere Verankerung von Scorecardsin die operativen Geschäftsprozesse dar.Kommen heute analytische Prognosemodelle

hauptsächlich im rein dispositiven Umfeld –wie z.B. der Vertriebs- und Aktionsplanung –zur Anwendung, so gewinnt künftig der syste-matische Einsatz in operativen Anwendungs-systemen an Bedeutung. Immer mehr Werk-zeuganbieter bieten daher die Möglichkeitüber definierte Service-Schnittstellen diezugrundeliegenden Statistikkomponenten inoperativen Anwendungssystemen, wie zumBeispiel Web-Anwendungen, zu integrieren.So werden beispielsweise bereits heute Score-cards in Kundenportalen von Versicherun-gen eingesetzt, um den Kundendialog zuanalysieren und zu steuern. Anhand bekann-ter Kundenmerkmale wird der jeweilige Por-talbesucher unter Nutzung von Scorecards inEchtzeit analysiert und die für ihn wahr-scheinlich interessantesten Produkte und Ser-vices prognostiziert, die dann unmittelbar imDialog angezeigt werden. Erste Erfahrungenzeigen, dass hierdurch signifikante Steige-rung des Verkaufserfolges erzielt werden kön-nen.

Fazit

Zunehmender Wettbewerb- und Kosten-druck sowie verändertes Kundenverhalten

„In der Praxis zeigt

sich drüber hinaus,

dass die Prognose-

güte – und damit der

Nutzen – stark mit

der versicherungs-

fachlichen und

mathematisch-

statistischen Kompe-

tenz der durch-

führenden Data

Mining Spezialisten

korrelieren“

Page 4: Predictive Analytics bei Vertriebssteuerung und -controlling: Status Quo und Perspektiven in der Versicherung

ZfV

zwingen die Assekuranz künftig noch in vielstärkerem Maße ihre begrenzten Ressourcenzielgerichteter einzusetzen. Dem Ausbau undErhalt der eigenen Kundenbasis kommtdabei eine überragende Bedeutung zu.

Bereits heute befindet sich in vielen großenVersicherungen Predictive Analytics erfolg-reich im Einsatz. Aufgrund der technologi-schen Weiterentwicklung wird das Einsatz-spektrum von Prognosemodellen jedochimmer umfangreicher. Künftig werdenScorecards nicht nur dispositiv, sondern auchdirekt eingebettet in die operativen Prozessenan Bedeutung gewinnen. Die größte Ein-stiegshürde zum Aufbau von Scorecards fürkleinere und mittlere Versicherer bildet –neben der oft nicht unbeträchtlichen Investi-tion in die analytischen Werkzeuge – vorallem die Skillfrage. Häufig sind Spezialisten,die sowohl über exzellentes versicherungsspe-zifisches Know-how, als auch über eine her-vorragende mathematisch-statististischeExpertise verfügen, intern nicht verfügbar.

Eine Lösung für diese Herausforderung istes, bei den ersten Schritten zum Aufbau voneigenen Scorecards nicht gleich zu viel zuwollen, sondern zusammen mit einem erfah-renen Partner, der über hinreichende Bran-chen- und Mathematikkompetenz verfügt,sukzessive das Thema und die eigene Mitar-beiter zu entwickeln sowie die notwendigenProzesse zu etablieren. Auch die Investitio-nen lassen sich – abhängig vom einzusetzen-den Statistikverfahren – durch die Nutzungvon kostengünstigere Open Source – Werk-zeugen für Data Mining und Statistik, wiezum Beispiel R ( http://www.r-project.org/)oder dem RapidMiner ( http://rapid-i.com /),begrenzen.

Ein erstes Projekt muss nicht gleich mehre-re Mannjahre umfassen. Erste Ergebnisse las-sen sich oft bereits nach kurzer Zeit erzielenund schrittweise ausbauen.

Abbildung 1: Predictive Analysis im Spektrum der BI-Technologien.

Abbildung 2: Stagnierende Beitragseinnahmen ausgewählter Branchen der deutschen Sachversicherungen

in Mio. Euro

(Quelle: TDWI)

(Quelle: GDV, 2009)

Page 5: Predictive Analytics bei Vertriebssteuerung und -controlling: Status Quo und Perspektiven in der Versicherung

ZfV

Abbildung 3: Neues Kundenverhalten in der Versicherung

(Quelle: Benölken, Gerber, Skudlik, 2005)

Abbildung 4: Cross-Industry Standard Process for Data Mining