5
40 IT-Banken & Versicherungen 3 • 2011 Predictive Analytics bei Vertriebs- steuerung und -controlling Status Quo und Perspektiven in der Versicherung Zurzeit kann man eine Renaissance der Data Mining-Idee beobachten. Nachdem Anfang der 2000er Jahre Business Intelligence als ein wesentlicher Baustein gesehen wurde, war es in den letzten Jahren zunehmend ruhig um dieses Thema geworden. Nun taucht das Konzept im Kontext von Business Analytics oder Predictive Analytics wieder auf. Gartner sieht in seinem aktuellen Hype Cycle das Thema Predictive Analytics kurz vor der Erreichung des Plateaus der Produktivität. STRATEGIE In Zeiten der Finanzkrise und eines sich dramatisch wandeln- den Marktes war und ist der Einsatz von zukunftsorientierten Prognosemodellen ein aktuelles Thema auch in der Versiche- rungsbranche. Insbesondere BI Anbieter wie SAS und IBM (SPSS) setzten bei der Weiterentwicklung ihrer BI-Plattfor- men konsequent auf das Thema Predictive Analytics – und bieten analytische Modelle und Lösungen für Versicherungen. Welche Einsatzbereiche finden sich bereits heute im Spektrum von Versicherungen für Predictive Analytics, welche Chancen – und welche Restriktionen – sind diesem Konzept gesetzt? Prediction – oder das Vorhersehen des künftig zu Erwartenden Unter dem Begriff „Predictive Analytics“ werden im allge- meinen Sprachgebrauch die zukunftsorientierte Datenana- lyse sowie das Erstellen von Prognosemo- dellen verstanden. Predictive Analytics wird dem Themenbereich „Busi- ness Analytics“ zugerechnet, der häufig als die Wei- terentwicklung oder Erweiterung der klassischen Business Intelligence bezeichnet wird. Gartner spricht hier treffend vom „Shift from measurement to analysis, forecasting and optimization“. Entscheidungsträger werden aufgrund immer stärker wachsen- der und zu verarbeitender Datenmengen gezwungen sein, auf immer stärker prognoseorientierte Modelle zu setzen und diese auch in operativeren Entscheidungsprozessen systematisch zu nutzen, um künftige Entwicklungen am Markt zu antizipieren und rechtzeitig agieren zu können. Bereits seit knapp zwanzig Jahren werden daher Predictive Analytics (PA) Werkzeuge insbesondere in Branchen wie der Telekommunikation, des Handels, des Bankings – aber auch in der Versicherungswirt- schaft erfolgreich eingesetzt. Der Versicherungsmarkt im Umbruch Nicht erst seit dem Ausbruch der Finanzkrise im Jahr 2009 vollzieht sich im Versicherungsmarkt ein dramatischer Wan- del. Einerseits trifft die Finanzkrise die Versicherungen hart, da sich aufgrund der deutlich erhöhten Volatilität der Marktbe- wertungen das Anlagerisiko stark erhöht hat bzw. die Anlage- möglichkeiten für die eingenommenen Versicherungsbeiträge stark eingeschränkt sind. Spätestens seit der Griechenland- Krise sind Staatsanleihen – eine bisher als sicher geltende Assetklasse und somit ein Hauptinstrument des Assetmanage- ments von Versicherungen – durchaus mit erheblichen Risiken belastet. Niedrige Zinsen führen zu ernsten Problemen, da Versicherungen darauf angewiesen sind ihre Beitragseinnah- men wirtschaftlich anzulegen, um künftige zu erwartende Risiken zu decken und Mindestverzinsungszusagen halten zu können. Anderseits verändert sich auch der Versicherungsmarkt selbst. Die Zeiten des stetigen Wachstums der Versicherungen sind – zumindest in den Industriestaaten – vorbei. In einem gesättigten Markt stagnie- ren die Beitragseinnahmen. Aufgrund der Globalisierung drängen im Kampf um mehr Marktanteile neue internationale Anbieter in den deutschen Markt. Zugleich stiegen die Kosten der Schadenregulierung in den letz- ten Jahren stetig an. Ein hoher Kostendruck und damit eine zunehmend geringere Marge für die Versicherung ist die Folge. Abbildung 1: Predictive Analysis im Spektrum der BI-Technologien (Quelle: TDWI)

Predictive Analytics bei Vertriebssteuerung und -controlling

Embed Size (px)

DESCRIPTION

[30.03.2012] Zurzeit kann man eine Renaissance der Data Mining-Idee beobachten. Nachdem Anfang der 2000er Jahre Business Intelligence als ein wesentlicher Baustein gesehen wurde, war es in den letzten Jahren zunehmend ruhig um dieses Thema geworden. Nun taucht das Konzept im Kontext von Business Analytics oder Predictive Analytics wieder auf. Gartner sieht in seinem aktuellen Hype Cycle das Thema Predictive Analytics kurz vor der Erreichung des Plateaus der Produktivität.

Citation preview

Page 1: Predictive Analytics bei Vertriebssteuerung und -controlling

40 IT-Banken & Versicherungen 3 • 2011

Predictive Analytics bei Vertriebs-steuerung und -controlling Status Quo und Perspektiven in der Versicherung

Zurzeit kann man eine Renaissance der Data Mining-Idee beobachten. Nachdem Anfang der 2000er Jahre Business Intelligence als ein wesentlicher Baustein gesehen wurde, war es in den letzten Jahren zunehmend ruhig um dieses Thema geworden. Nun taucht das Konzept im Kontext von Business Analytics oder Predictive Analytics wieder auf. Gartner sieht in seinem aktuellen Hype Cycle das Thema Predictive Analytics kurz vor der Erreichung des Plateaus der Produktivität.

Strategie

In Zeiten der Finanzkrise und eines sich dramatisch wandeln-den Marktes war und ist der Einsatz von zukunftsorientierten Prognosemodellen ein aktuelles Thema auch in der Versiche-rungsbranche. Insbesondere BI Anbieter wie SAS und IBM (SPSS) setzten bei der Weiterentwicklung ihrer BI-Plattfor-men konsequent auf das Thema Predictive Analytics – und bieten analytische Modelle und Lösungen für Versicherungen. Welche Einsatzbereiche finden sich bereits heute im Spektrum von Versicherungen für Predictive Analytics, welche Chancen – und welche Restriktionen – sind diesem Konzept gesetzt?

Prediction – oder das Vorhersehen des künftig zu Erwartenden

Unter dem Begriff „Predictive Analytics“ werden im allge-meinen Sprachgebrauch die zukunftsorientierte Datenana-

lyse sowie das Erstellen von Prognosemo-dellen verstanden. Predictive Analytics

wird dem Themenbereich „Busi-ness Analytics“ zugerechnet,

der häufig als die Wei-

terentwicklung oder Erweiterung der klassischen Business Intelligence bezeichnet wird. Gartner spricht hier treffend vom „Shift from measurement to analysis, forecasting and optimization“.

Entscheidungsträger werden aufgrund immer stärker wachsen-der und zu verarbeitender Datenmengen gezwungen sein, auf immer stärker prognoseorientierte Modelle zu setzen und diese auch in operativeren Entscheidungsprozessen systematisch zu nutzen, um künftige Entwicklungen am Markt zu antizipieren und rechtzeitig agieren zu können. Bereits seit knapp zwanzig Jahren werden daher Predictive Analytics (PA) Werkzeuge insbesondere in Branchen wie der Telekommunikation, des Handels, des Bankings – aber auch in der Versicherungswirt-schaft erfolgreich eingesetzt. Der Versicherungsmarkt im Umbruch

Nicht erst seit dem Ausbruch der Finanzkrise im Jahr 2009 vollzieht sich im Versicherungsmarkt ein dramatischer Wan-del. Einerseits trifft die Finanzkrise die Versicherungen hart, da sich aufgrund der deutlich erhöhten Volatilität der Marktbe-wertungen das Anlagerisiko stark erhöht hat bzw. die Anlage-möglichkeiten für die eingenommenen Versicherungsbeiträge stark eingeschränkt sind. Spätestens seit der Griechenland-Krise sind Staatsanleihen – eine bisher als sicher geltende Assetklasse und somit ein Hauptinstrument des Assetmanage-ments von Versicherungen – durchaus mit erheblichen Risiken belastet. Niedrige Zinsen führen zu ernsten Problemen, da Versicherungen darauf angewiesen sind ihre Beitragseinnah-men wirtschaftlich anzulegen, um künftige zu erwartende Risiken zu decken und Mindestverzinsungszusagen halten

zu können. Anderseits verändert sich auch der Versicherungsmarkt selbst. Die Zeiten des stetigen Wachstums der Versicherungen sind – zumindest in den Industriestaaten – vorbei. In einem gesättigten Markt stagnie-ren die Beitragseinnahmen. Aufgrund der Globalisierung drängen im Kampf um mehr Marktanteile neue internationale Anbieter in den deutschen Markt. Zugleich stiegen die Kosten der Schadenregulierung in den letz-ten Jahren stetig an. Ein hoher Kostendruck und damit eine zunehmend geringere Marge für die Versicherung ist die Folge. Abbildung 1: Predictive Analysis im Spektrum der BI-Technologien (Quelle: TDWI)

Page 2: Predictive Analytics bei Vertriebssteuerung und -controlling

IT-Banken & Versicherungen 3 • 2011 41

Der Wettbewerb um die Versicherungskunden wird härter und auch die Kunden haben sich verändert! Der traditionelle Versicherungskun-de – langfristig konservativ orientiert, mit allen Produkten bei einem Versicherer versichert und einmal gewonnen, treu an seine Versiche-rung gebunden – wird zunehmend von neuen Kundentypen verdrängt.

Da gibt es den vertragsorientierten Kundentyp, der dem Best-of-Breed-Ansatz folgend, kostenorientiert seine Versicherungsrisiken beim jeweils attraktivsten Versicherer abdeckt. Ein Trend, der sich maßgeb-lich auf das Internet mit seinen Vergleichsportalen und die daraus resultierende Transparenz der Versi-cherungsangebote stützt. Für diese Kunden werden kostengünstige Standardprodukte angeboten – die ohne komplizierte Mechanik quasi industrialisiert erbracht werden können.

Dem Gegenüber steht eine zweite Kundengruppe, für die nicht der Preis, sondern vielmehr die erbrach-te Leistung im Vordergrund steht. Dieser individu-alistische Kundentyp erwartet individuell auf seine persönlichen Bedürfnisse zugeschnittene Versiche-rungsprodukte und vor allem Premium-Services. Für diese spürbaren Mehrwerte ist er bereit höhere Beiträge zu zahlen.

Um sich diesen Veränderungen und Entwicklungen stellen zu können, sind die Versicherer in viel stärke-rem Maße als in der Vergangenheit gezwungen, früh-zeitig die richtigen Entscheidungen zu treffen, die richtigen Produkte, zur richtigen Zeit, über den rich-tigen Vertriebskanal dem richtig ermittelten Kun-dentyp anzubieten und vor allem ihre Services noch stärker an den Kundenbedürfnissen auszurichten.

Heutige Anwendungsgebiete von Predictive Analytics in der Versicherung

Die Nutzung von mathematisch, statischen Ver-fahren für zukunftsorientierten Prognosemodelle ist kein neues Thema in der Assekuranz. Zumin-dest nicht bei den größeren Versicherern. In fast allen großen Versicherungen finden sich heute schlagkräftige Statistikabteilungen, die sich dedi-ziert auch mit Predictive Analytics beschäftigen. Wesentliche Prognose- und Analyse-Schwerpunkte liegen heute vor allem auf dem analytischen Custo-mer Relationship-Management bzw. der Customer Intelligence sowie der damit eng verbundenen Vertriebssteuerung.

Abbildung 2: Stagnierende Beitragseinnahmen ausgewählter Branchen der deutschen Sachversicherungen in Mio. EUR (Quelle: GDV, 2009)

Abbildung 3: Neues Kundenverhalten in der Versicherung (Quelle: Benölken, Gerber, Skudlik, 2005)

Page 3: Predictive Analytics bei Vertriebssteuerung und -controlling

42 IT-Banken & Versicherungen 3 • 2011

Strategie

Häufige Fragestellungen, die mit analytischen Modellen pro-gnostiziert werden, sind z.B.:

Customer Lifetime Value / Kundenwert • In welchen Segmenten und wie entwickelt sich künftig der

Kundenstamm? • Mit welchen Strategien lässt sich das zukünftige Kundenver-

halten beeinflussen?• Welche Entscheidungsmerkmale sprechen dafür, dass End-

kunden ein Produkt kaufen?• Über welche Kommunikationskanäle lassen sich die unter-

schiedlichen Kundensegmente am besten ansprechen?• Wie lassen sich Kundensegmente langfristig loyalisieren und

nachhaltig entwickeln? • Wie können Budget und Ressourcen bei kundenorientierten

Investitionsvorhaben am effektivsten eingesetzt und gesteu-ert werden?

Churn Management / Attrition • Welche Kunden werden wahrscheinlich in nächster Zeit kün-

digen bzw. sind stornogefährdet? • Wie lassen sich unzufriedene Kunden erkennen bevor sie

eine Kündigungsabsicht äußern?• Welche Maßnahmen zur Kündigungsverhinderung oder gar

Kündigerrückgewinnung sind unter Berücksichtigung öko-nomischer Kennzahlen, wie z.B. des Kundenwertes, in der jeweiligen Konstellation am erfolgversprechendsten?

Lead Management / Aktionsmanagement• Wie kann die Reichweite und Wirksamkeit von Marketing

Kampagnen erhöht werden?• Up- und Cross-Selling: Welche Kunden haben eine hohe

Abschlussaffinität hinsichtlich weiterer ausgewählter Pro-dukte?

• Zu welchem Anlass hat ein Vertreterbesuch die größte Wirk-samkeit?

Vertriebsplanung / Standortplanung• Wie entwickeln sich die Kunden regional? • Welche Vertriebswege sind für welche Produkte und Kun-

densegmente effektiv und effizient?• Welche Agenturstandorte werden wo regional benötigt?• Welche Agenturen und Makler werden künftig welchen

Umsatz mit welchem Produkt erwirtschaften?• Welche Produkte müssen sich wie oft verkaufen, um künfti-

gen Entwicklungen des Marktes zu begegnen?• Wie entwickelt sich der Markt im Zeitraum X für bestimmte

Produkte?

Eingesetzte Verfahren und Modelle

Zur Beantwortung der fachlichen Fragenstellungen werden unterschiedliche mathematisch-statistische Verfahren des (datengetriebenen) Data Mining und der hypothesenbasierten multivariaten Statistik genutzt. Der Einsatz von Data Mining dient hierbei der Entdeckung von komplexen Strukturen, Zusammenhängen oder Besonderheiten in großen Datenmen-gen. Die daraus abgeleiteten Hypothesen / Modelle werden dann mit Hilfe von realen Daten und Algorithmen hinsichtlich ihrer Prognosegüte überprüft.

Dieser in der Praxis häufig auf dem „Cross-Industry Standard Process for Data Mining“ (CRISP-DM) basierende Prozess wird im Kontext der Predictive Analytics als Scoring bezeich-net. Das prinzipielle Vorgehen beim Scoring lässt sich verein-facht durch folgende Schritte darstellen:

Verständnis des fachlichen Kontextes• Klärung der fachlichen Zielsetzung des Prognosemodells

(Scorecard): Insbesondere der fachlichen Spezifikation des zu prognostizierenden Ereignisses sowie des avisierten Pro-gnosezeitraumes.

• Festlegung des künftigen Einsatzszenarios: In welchen (ope-rativen) Prozessen soll die Scorecard eingesetzt werden?

• Festlegung von Kriterien der Wirksamkeit der Scorecard: Was soll mit dem Scorecard-Einsatz erreicht werden und wie lässt sich das Ergebnis bewerten?

Datenbereitstellung und –aufbereitung• Klärung welche Daten aus fachlicher Hinsicht zu berücksich-

tigen sind, in welchem Umfang diese überhaupt (technisch) vorhanden sind und ob zusätzlich extern zu beschaffende

Abbildung 4: Cross-Industry Standard Process for Data Mining

Page 4: Predictive Analytics bei Vertriebssteuerung und -controlling

IT-Banken & Versicherungen 3 • 2011 43

Daten, wie zum Beispiel Markt- und Milieudaten benötigt werden.

• Analyse der Datenqualität der zur Modellbildung heranzu-ziehenden Daten.

• Ggf. Umsetzung und Einhaltung möglicher Restriktionen des Datenschutzes.

• Separierung der Daten in Trainingsdaten zur Modellierung und in von den Trainingsdaten unabhängige Testdaten zur Validierung.

Scorecard-Modellierung• Aufbau eines statistischen, kontextbezogenen Prognose-

modells, das den Einfluss von Merkmalen auf ein Ereignis/Gegenereignis (bei den meisten Einsatzgebieten von Score-cards handelt es sich um die Vorhersage zweier Ausprägun-gen wie bspw. „Kunde kündigt“ und „Kunde kündigt nicht“) auf Basis von vorhandenen Beobachtungen analysiert und Wahrscheinlichkeiten aufgrund des Modells berechnet.

• In der Praxis bilden Scorecards häufig ein multivariates Modell ab, in dem durch passende mathematische Verknüp-fung verschiedene Merkmale zu einem Modell zusammen-geführt werden.

• Zum Einsatz kommen unterschiedlichste Data-Mining-Ver-fahren, wie zum Beispiel Neuronale Netze, Entscheidungs-bäume und logistische Regressionen.

• Welches Verfahren für das jeweilige Prognosemodell am besten geeignet ist hängt sowohl von den zur Verfügung stehenden Daten ab als auch von der Fachlichkeit des zu analysierenden Ereignisses.

Scorecard-Evaluation• Zur kontinuierlichen Verbesserung des betrachteten Progno-

semodells werden systematisch die strukturellen Einflüsse der betrachteten Merkmale analysiert und nicht signifikante Besonderheiten herausgefiltert.

• Bewertung der Prognosegüte: Mittels der unabhängigen Validierungsmenge wird die Aussagekraft der Scorecard gemessen und anhand von etablierten Kennzahlen die Prog-nosegüte bewertet.

Scorecard-Einsatz• Anwendung der Scorecard in den definierten Einsatzszena-

rios, d.h. Einbettung in die operativen Geschäftsprozesse und Durchführung der Prognose auf Basis aktueller (täglicher, wöchentlicher oder monatlicher) Daten.

• Kontinuierliche Messung der Prognosegüte und Wartung des statistischen Modells, das in regelmäßigen Abständen immer weiter trainiert und validiert wird, um die Prognosegüte ste-tig zu verbessern.

Dieses Vorgehen lässt sich in vielen modernen Versicherungs-unternehmen finden und ist in diesen seit mehreren Jahren eta-bliert. Obwohl ein etabliertes Standardvorgehen existiert, sind darüber hinaus eine Fülle von Einflussfaktoren zu managen, die über den erfolgreichen Einsatz von Predictive Analytics in der Versicherungsbranche entscheiden.

Kritische Erfolgsfaktoren

Von zentraler Bedeutung für den Erfolg einer entwickelten Scorecard sind insbesondere:• die Klärung der fachlichen Zielsetzung,• die Auswahl des passenden mathematisch-statistischen

Modells,• die Qualität der zugrundeliegenden Datenbasis und• die richtige Interpretation der erzielten Prognoseergebnisse

und der daraus abgeleiteten Maßnahmen.

Das hört sich auf den ersten Blick trivial an, ist es aber in keiner Weise. In der Praxis zeigt sich darüber hinaus, dass die Prognosegüte – und damit der Nutzen – stark mit der versiche-rungsfachlichen und mathematisch-statistischen Kompetenz der durchführenden Data Mining Spezialisten korrelieren.

Im Versicherungsumfeld kommen im Hinblick auf die benö-tigten Kunden- und Vertriebsdaten einige weitere branchen-spezifische Besonderheiten hinzu. Im modernen Versiche-rungsvertrieb werden unterschiedlichste Vertriebswege, wie AO-Vertreter, Makler, Strukturvertriebe, Onlineplattformen, Internet oder B2B-Partner, wie z.B. Autohäuser oder Automo-bilhersteller, genutzt. Die Beschaffung (und Standardisierung) der zur Modellentwicklung und –anwendung notwendigen Vertriebsdaten stellt hierbei eine erhebliche Herausforderung dar. Erschwerend wirkt hierbei auch die rechtliche Unabhän-gigkeit der Vertreterschaft, die als selbständige Handelsver-treter rechtlicher und wirtschaftlicher Eigentümer ihrer Daten sind. Zusätzlich schränken die an die Versicherung gestellten datenschutzrechtlichen Anforderungen sowohl den Umfang als auch die Qualität der zur Analyse heranziehbaren Daten maßgeblich ein. Vor allem Mehrsparten-Versicherungen, in denen die einzelnen Sparten Sach-, Kranken- und Lebensver-sicherung in rechtlich selbständigen Unternehmen organisiert sind, haben gerade im Blick auf personenbezogene Daten strenge Regeln zu befolgen.

Der Prozess der Scorecard-Modellierung ist selbstverständ-lich toolgestützt und basiert auf dem Einsatz von statistischen Werkzeugen. Eigenständige Data Mining Lösungen, wie bei-spielsweise des SAS Enterprise Miner 6.2 oder des IBM SPSS Modeler 14, sind zurzeit jedoch in den Versicherungen noch gering vertreten, da mit Einsatz dieser Werkzeuge teilweise beträchtliche Investitionen verbunden sind. Daher kommen bei der Scorecard-Entwicklung in der Assekuranz häufig die bereits für andere Zwecke eingesetzten statistischen Werkzeu-ge, wie beispielsweise SAS| STAT zum Einsatz.

Page 5: Predictive Analytics bei Vertriebssteuerung und -controlling

44 IT-Banken & Versicherungen 3 • 2011

Strategie

Der Einsatz von echten Data Mining Suiten kann allerdings zu einer Erhöhung der Scoring-Produktivität führen, stellt aber – zumindest zurzeit – aus Sicht vieler Versicherer noch keinen echten kritischen Erfolgsfaktor dar, da auch mit den etablier-ten statistischen Werkzeugen gleichwertige Ergebnisse erzielt werden können. Der von einigen Data Mining-Anbietern verfolgte Ansatz, in ihren Suiten vorkonfigurierte versiche-rungsspezifische Prognosemodelle bereitzustellen, um die Einstiegshürden für kleinere Versicherungen zu senken, ist allerdings angesichts des starken Einflusses der notwendigen Kombination von Fach- und Statistikwissen der Analysten sowie der jeweiligen Heterogenität der Versicherer hinsicht-lich Prognose-Inputdaten – zumindest zu hinterfragen.

Ein echter Fortschritt in der Toolunterstützung zeichnet sich indessen an anderer Stelle ab: Durch den immer breiter werdenden Einsatz von Prognose-modellen, steigt auch die Komplexität und Vielzahl der in die Analysen einbezogenen Datenquellen – die Sicherstellung der Datenqualität gewinnt somit zunehmend an Gewicht. Eine Entwicklung, der durch die Anbieter durch die Integration von Data Quality Lösungen in ihre BI Suiten Rechnung getragen wird.

Gerade in kundenfokussierten Prognosen, deren Ergebnis häufig zu direkter Kommunikation oder einer (mit Kosten verbundenen) Interaktion mit dem Kunden führt, ist eine qualitativ hochwertige – systematisch qualitätsgesicherte – Kundendatenbasis ein absolutes Muss. Wird hier zu wenig getan, wirkt schnell das GIGO-Prinzip – „Garbage In, Garbage Out“. Die komplexesten und hochentwickeltsten Prognose-modelle nützen nur, wenn qualitativ hochwertige Daten die Grundlage der Analyse und Prognose sind.

Die wichtigste Innovation stellt jedoch die immer stärkere Ver-ankerung von Scorecards in die operativen Geschäftsprozesse dar. Kommen heute analytische Prognosemodelle hauptsäch-lich im rein dispositiven Umfeld – wie z.B. der Vertriebs- und

Aktionsplanung – zur Anwendung, so gewinnt künftig der systematische Einsatz in operativen Anwendungssystemen an Bedeutung. Immer mehr Werkzeuganbieter bieten daher die Möglichkeit über definierte Service-Schnittstellen die zugrun-deliegenden Statistikkomponenten in operativen Anwen-dungssystemen, wie zum Beispiel Web-Anwendungen, zu integrieren. So werden beispielsweise bereits heute Scorecards in Kundenportalen von Versicherungen eingesetzt, um den Kundendialog zu analysieren und zu steuern. Anhand bekann-ter Kundenmerkmale wird der jeweilige Portalbesucher unter Nutzung von Scorecards in Echtzeit analysiert und die für ihn wahrscheinlich interessantesten Produkte und Services pro-gnostiziert, die dann unmittelbar im Dialog angezeigt werden. Erste Erfahrungen zeigen, dass hierdurch signifikante Steige-rungen des Verkaufserfolges erzielt werden können.

Fazit

Zunehmender Wettbewerbs- und Kostendruck sowie verän-dertes Kundenverhalten zwingen die Assekuranz künftig noch in viel stärkerem Maße ihre begrenzten Ressourcen zielge-richteter einzusetzen. Dem Ausbau und Erhalt der eigenen Kundenbasis kommt dabei eine überragende Bedeutung zu.

Bereits heute befindet sich in vielen großen Versicherungen Predictive Analytics erfolgreich im Einsatz. Aufgrund der technologischen Weiterentwicklung wird das Einsatzspektrum von Prognosemodellen jedoch immer umfangreicher. Künftig werden Scorecards nicht nur dispositiv, sondern auch direkt eingebettet in die operativen Prozesse, an Bedeutung gewin-nen. Die größte Einstiegshürde zum Aufbau von Scorecards für kleinere und mittlere Versicherer bildet – neben der oft nicht unbeträchtlichen Investition in die analytischen Werk-zeuge – vor allem die Skillfrage. Häufig sind Spezialisten, die sowohl exzellentes versicherungsspezifisches Know-how, als auch eine hervorragende mathematisch-statistische Expertise bieten, intern nicht verfügbar.

Eine Lösung für diese Herausforderung ist es, bei den ersten Schritten zum Aufbau von eigenen Scorecards nicht gleich zuviel zu wollen, sondern zusammen mit einem erfahrenen Partner, der über hinreichende Branchen- und Mathematik-kompetenz verfügt, sukzessive das Thema und eigene Mit-arbeiter zu entwickeln sowie die notwendigen Prozesse zu etablieren. Auch die Investitionen lassen sich – abhängig vom einzusetzenden Statistikverfahren – durch die Nutzung von kostengünstigere Open Source-Werkzeugen für Data Mining und Statistik, wie zum Beispiel R (http://www.r-project.org/) oder dem RapidMiner (http://rapid-i.com/), begrenzen.

Ein erstes Projekt muss nicht gleich mehrere Mannjahre umfassen. Erste Ergebnisse lassen sich oft bereits nach kurzer Zeit erzielen und schrittweise ausbauen.

Falk LehmannHead of Business Intelligence, metafinanz Informationssysteme GmbH

Autoren:

Axel KummerCOO, metafinanz Informationssysteme GmbH