Release-Wechsel & Kostenschätzung: VPV Versicherung steigt auf SAS Insurance Analytics Architecture um
Man kann Monate oder sogar Jahre über Datenmodelle, Methoden und Konzepte diskutieren. Aber so viel Zeit wollte und konnte sich die VPV Versicherung nicht nehmen. Jürgen Reinsch, IT-Leiter/CIO der VPV Versicherung führte konzernweit ein einheitliches Data Warehouse auf Basis der Analytics-Infrastruktur und des versicherungsspezifischen Datenmodells von SAS ein. Der Anwendungsbericht der VPV.
von Jürgen Reinsch, IT-Leiter/CIO der VPV Versicherungen
Ausgangsbasis war 2013 ein seit rund einem Jahrzehnt bestehendes Data Warehouse, an das nur wenige Quellsysteme angebunden waren. Es wurde zwar von einigen Fachabteilungen intensiv, aber in Summe nur von wenigen Fachabteilungen genutzt und verursachte im Verhältnis zur Nutzung zu hohe laufende Kosten. Das eingesetzte Release war aus der Wartung und für den anstehenden Release-Wechsel lag eine hohe Kostenschätzung vor. Für ETL und Datenmanagement wurden keine spezifischen Werkzeuge eingesetzt. Ein übergreifendes DWH-Konzept, auf dem andere Themen aufsetzen können, gab es nicht. Künftige regulatorische Anforderungen wären nur schwierig umzusetzen gewesen.Wir mussten einen großen Schritt unternehmen. Dazu mussten wir genau prüfen, was wir künftig im Konzern auf einer gemeinsamen Datenbasis können wollen und müssen. Das Ergebnis war eindeutig: möglichst alles.”
Das war nicht nur von der Business-Logik diktiert, sondern auch von regulatorischen Anforderungen, die jede Versicherung bewältigen muss – namentlich Solvency II. Um die von den Aufsichtsbehörden geforderten Berichte auf Dauer effizient und sicher erstellen zu können, ist eine konzernweite Datenbasis unerlässlich, inklusive eines einheitlichen Metadatenkonzepts.
Make or buy?
Basis für eine konzernweite Datennutzung mit einem möglichst großen Einzugsbereich über alle Sparten und Fachabteilungen hinweg ist ein ausgereiftes, zukunftssicheres Datenmodell. Und hier wählte die VPV den zugleich pragmatischsten und erfolgversprechendsten Weg: die Nutzung eines bestehenden Datenmodells – des SAS Detail Data Store for Insurance. Die Erstellung eines unternehmensweit gültigen, zukunftsfähigen Datenmodells erfordert viel Zeit und verursacht hohe Kosten.
Sicher wären wir selbst in der Lage gewesen, ein leistungsfähiges Modell zu erstellen. Aber warum sollten wir das in diesem Fall tun?”
Es überwogen die Vorteile des Zukaufs einer hochwertigen Basis wie die von SAS deutlich – und das nicht nur aus Kostengründen. Zum einen könne man so viel schneller in die produktive Arbeit einsteigen. Zum anderen profitiere man damit auch von den Erfahrungen anderer Häuser. Das schafft Zukunftssicherheit. Ein Standarddatenmodell vereint Wissen und Praxiserfahrung aus verschiedenen Häusern.
Zudem bietet es die Möglichkeit, künftige Anforderungen leichter zu implementieren, auch wenn wir diese selbst noch gar nicht bedacht haben – eben weil andere Versicherungen sie schon umgesetzt haben und es deshalb im Datenmodell bereits vorgesehen ist. Davon wollen wir profitieren, und dazu wollen wir auch beitragen.”
Und noch einen Vorteil gäbe es: Ein Standardmodell könne geschult werden – die Einbindung externer Mitarbeiter wird damit erheblich einfacher.
Die Umstellung erstreckte sich über rund drei Jahre. Eine besondere Herausforderung war, dass der Aufbau des Konzern-Warehouse kein Prio-1-Projekt war. Auch deshalb war ein ganz zielorientiertes und pragmatisches Vorgehen unumgänglich. Dabei arbeitete die VPV nicht nur mit SAS direkt zusammen, sondern für Teilprojekte auch mit dem langjährigen SAS Partner HMS.
Hat es sich gelohnt? Ja, ein absolut erfolgreiches Projekt. Mit dem heutigen Data Warehouse haben wir erreicht, was wir uns vorgenommen haben.”
Das Datenmanagement ist komplett modernisiert und im Hinblick auf eine konsequente Data Governance vereinheitlicht. Eine unverzichtbare Voraussetzung für eine zukunftssichere Infrastruktur und eine der Stärken von SAS.
Inzwischen sind alle wesentlichen operativen Systeme angebunden: die Bestandssysteme der Sparten Leben und Komposit, Vertriebssystem, Provisionssystem, In-/Exkasso, Zentraler Partner, CRM, Vorgangssteuerung, Kapitalanlagen und SAP FI. Sogar die neue Telefonanlage sowie die Jobsteuerung im Rechenzentrum sind als Quellsysteme angebunden.
Entsprechend breit werden die Daten von der VPV inzwischen genutzt. Alle wesentlichen Statistiken kommen aus dem Data Warehouse, ebenso die Deckungsbeitragsrechnung Komposit. Inzwischen arbeiten Mitarbeiter aus allen Unternehmensbereichen mit dem neuen System: Vertrieb, Service Center, alle Sparten, Versicherungsmathematik und auch der Vorstand haben direkten Zugriff auf rollenspezifische Datensichten. Auch eine Prozesskostenrechnung konnte die VPV auf dieser Basis einführen. Für Code of Conduct läuft der Sperralgorithmus im DWH.
Im Hinblick auf Solvency II erzeugt das Data Warehouse einen eigenen Data Mart, der Daten für Solvara bereitstellt.
Basierend auf der SAS Architektur haben wir jetzt für viele Themen einen unternehmensweiten, zuverlässigen, revisionssicheren Single Point of Truth.”
Die Vollständigkeit der Daten aus einer Quelle macht vertiefende Datenanalysen und ein weitgehend automatisiertes Berichtswesen möglich. Zudem können Prozesse unterstützt werden, die vorher nicht zwingend im DWH-Umfeld verortet wurden. Damit schaffe die VPV Versicherung Erleichterung für viele Nutzer und ermögliche eine noch präzisere Geschäftssteuerung in vielen Bereichen. Und das ist noch längst nicht das Ende der Fahnenstange. Nach einer ersten Konsolidierungsphase soll der Nutzen weiter ausgebaut werden:
Ein Data Warehouse muss ‚leben‘. Es gibt noch einiges zu tun. Wir werden uns nicht auf dem aktuellen Stand ausruhen. Unser Ziel ist es, das Data Warehouse immer werthaltiger zu machen.“aj
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/49440
Schreiben Sie einen Kommentar