Big Data & Analyse: Big Data für die Finanzwirtschaft? Das bringen analytische Datenbanken
Im Finanzbereich fallen bereits heute Unmengen von Daten an. Der direkte Dialog mit dem Kunden über soziale Netzwerke sowie Vergleichsportale oder Nutzerforen bringt Banken, Sparkassen und Versicherungen zunehmend im Netz ins Gespräch. Dies stellt die Finanzbranche vor ganz neue Herausforderungen, und der Wettbewerbsdruck steigt. Finanzinstitute müssen flexibel auf Marktentwicklungen und Kundenanforderungen reagieren. Die Lösung heißt: Big Data Analytics.
von Mathias Golombek, CTO Exasol
Kundenbeziehungen verändern sich durch die schnelle und direkte Kommunikation. Kunden zeigen eine deutlich stärkere Wechselwilligkeit im Bankenumfeld als früher. Neben der Vielzahl an Informationsplattformen steigen die regulatorischen Anforderungen und Compliance-Richtlinien werden verschärft. Um das volle Potenzial von Big Data ausschöpfen zu können, in Echtzeit zu reagieren, Risiken frühzeitig zu erkennen und dabei immer den Kunden im Blickfeld zu behalten, müssen Finanzunternehmen eine datengetriebene Strategie innerhalb ihrer Abteilungen, speziell der IT- und Organisationsabteilung, aufsetzen. Banken, Sparkassen und Versicherungen stehen hier vor einer großen Herausforderung.Technische und personelle Voraussetzungen
Um Big-Data-Analysen für den eigenen Geschäftserfolg nutzbar machen zu können, müssen unterschiedliche Voraussetzungen innerhalb des Unternehmens erfüllt sein. Die Datenanalyse ist fest in die übergeordnete Unternehmensstrategie zu verankern. Gleichzeitig kommt es auf folgende essenzielle technische Faktoren an:
1. Leistungsfähige und effiziente Systeme2. Eine frei skalierbare, analytische Datenbank, die große Datenmengen verarbeitet
3. BI-Frontend oder Visualisierungssoftware zur Aussteuerung der Analysen
Zudem müssen einige personelle Gegebenheiten in den Fachabteilungen berücksichtigt werden. So sind Spezialisten wie der sogenannte Data Scientist notwendig. Sie verfügen über ein breites und vor allem tiefgreifendes Big Data und Analyse Know-how. Darüberhinaus sollte ein Proof of Concept personell wie auch monetär eingeplant werden. Dabei handelt es sich um eine ausführliche Evaluierung der Bestandslage im Vorfeld des Projekts Big-Data-Analyse.
Notwendige Investitionen
Eine genaue Aussage zum Investitionsvolumen bei dieser Art von Projekten ist ohne Evaluierung vorab praktisch nicht zu beziffern. Grundsätzlich lässt sich jedoch festhalten: Big-Data-Analysen können auch bei begrenzten Budgets erfolgreich umgesetzt werden. Der Investitionsumfang hängt im Wesentlichen von der bestehenden Infrastruktur sowie von der Datenmenge und der Datenbanktechnologie ab. Dabei können die Kosten für die Analysesysteme variieren.
Setzt ein Finanzunternehmen eine intelligente In-Memory-Datenbank ein, so reduzieren sich die Lizenzkosten auf den tatsächlich genutzten Arbeitsspeicher.”
Dies ist speziell vor dem Hintergrund sinnvoll, dass die RAM-Preise im Verhältnis zu Festplattenspeichern zunehmend fallen. Hinzu kommen intelligente Kompressionsalgorithmen, die die Investitionskosten einer In-Memory-Datenbank im Gegensatz zu konventionellen Datenbanken mehr als halbieren können. Selbst bei einem extrem knappen Budget lassen sich mit flexibel skalierbaren Software-as-a-Service(SaaS)-Lösungen erfolgreich Big-Data-Projekte umsetzen.
Was die Gesamtkosten eines Big-Data-Projekts anbelangt, so lässt sich dazu keine Pauschalaussage treffen. Generell gilt: Die Investitionen für eine erfolgreiche Implementierung von Big-Data-Analysen sind von Fall zu Fall unterschiedlich und von verschiedensten Faktoren abhängig. Während große Finanzinstitute in der Regel auch entsprechend große IT-Budgets zur Verfügung haben, müssen kleinere oder mittlere Unternehmen den Euro häufig zweimal umdrehen. Dies gilt für Start-ups gleichermaßen.
Allerdings: Abhängig vom Geschäftsmodell können auch Finanzfirmen mit kleineren Budgets auf Big-Data-Analysen setzen und diese gewinnbringend für ihre Geschäftsentwicklung einsetzen. Gerade für Start-ups empfiehlt es sich sogar, auf zukunftssichere analytische Datenbanken zu setzen, um von den gespeicherten und analysierten Daten profitieren zu können. Denn je weiter das Datengedächtnis zurückgeht, umso besser.
Vorteil von In-Memory-Datenbanken
In-Memory bedeutet, dass Daten im Hauptspeicher gehalten und verarbeitet werden. Grundsätzlich ist das nicht neu – das Besondere und Neue daran ist, dass auch riesige Datenmengen dort verarbeitet werden können. Die Verwendung von In-Memory-Datenbanken bei der Big-Data-Analyse bewährt sich in vielerlei Hinsicht – nicht nur in punkto Kosteneffizienz. Ein weiterer Vorteil liegt in der Schnelligkeit. Der Zugriff auf Daten, die im Hauptspeicher liegen, ist um den Faktor 1000 schneller als der Zugriff auf Daten, die auf der Festplatte liegen. Häufig müssen zum Beispiel Kreditentscheidungen innerhalb von Sekundenbruchteilen getroffen werden – dabei ist es wichtig, dass die Datenverarbeitung mithalten kann. Dies ist nur mit Hilfe von In-Memory-Datenbanken umsetzbar.
Systemanforderungen: Hohe Leistung und Geschwindigkeit
Entscheidet sich ein Finanzinstitut für Big-Data-Analysen, so ist das A&O der IT Abteilung, im Vorfeld die bestehende IT-Infrastruktur genauestens unter die Lupe zu nehmen. Denn prinzipiell erfordern Big-Data-Analysen keinen kompletten Austausch von Systemen. In den meisten Fällen reicht es, vorhandene Systeme gezielt durch neue zu ergänzen. Das Hauptkriterium bei der Analyse der bestehenden Infrastruktur ist das Prüfen der Voraussetzungen, mit den anfallenden Datenmengen entsprechend den Anforderungen umzugehen. Die größte Rolle in diesem Zusammenhang spielt die Leistungsfähigkeit beziehungsweise die Geschwindigkeit der implementierten Systeme. In der Regel sind klassische IT-Systeme mit riesigen Datenmengen komplett überlastet, reagieren zu langsam und weisen schleppende Lade- und Analysezeiten auf. Zudem kommt es darauf an, Daten aus verschiedenen nicht homogenen Quellen zusammenführen, einzelne Datensätze in Echtzeit zu verarbeiten sowie die aus dem Echtzeitprozess entstehenden Daten analysieren zu können. Flexibilität ist dabei ein ebenso essenzielles Kriterium. Weiterhin sollte die Lösung wartungsarm sein und kein ständiges Tuning erfordern.
Daher besteht die Hauptaufgabe eines IT-Leiters darin, die bestehenden Systeme auf Vordermann zu bringen und Lösungen zu wählen, die mit der neuen Aufgabenstellung mitwachsen können. So ist eine langfristige Investitionssicherheit gegeben.
Einsatz von Algorithmen
ExasolExasol ist Hersteller von analytischen Datenbanksystemen. Das Kernprodukt von Exasol ist eine auf In-Memory-Technologie basierende Software für “professionelle, parallele und schnelle Datenanalysen”, die in sämtlichen Branchen von Finanzunternehmen über Industrie 4.0 bis hin zu Retail und Energie & Versorgung zum Einsatz kommen soll.Der intelligente Einsatz von effizienten Algorithmen erweist sich bei Big-Data-Analysen als erfolgsentscheidend. Dabei kommen die unterschiedlichsten Algorithmen zum Zug. So facettenreich wie Big-Data-Analysen sind, so differenziert sind die Algorithmen. Zudem erweist sich jede Anwendung als so individuell und unterschiedlich, dass sie sich nicht einfach auf ein anderes Einsatzszenario projizieren lässt. Grundsätzlich sind die Algorithmen entscheidend, die direkt auf die Rohdaten zugreifen. Die Datenanalysten sollten mit Hilfe der Algorithmen aus den gesammelten Daten verlustfrei die Informationen herausfiltern können, die für die jeweiligen Auswertungen notwendig sind.
Was eine analytische Datenbank können sollte
Für einen perfekten Einsatz im Finanzumfeld sollte eine analytische Datenbank diese Kriterien bieten:
1. Vielschichtige Ad-hoc-Abfragen2. Komplexe Auswertungen und Analysen in Höchstgeschwindigkeit
3. Kurze Reaktionszeiten
4. Tiefenanalysen zur Erfolgsmessung
Daraus ergeben sich Vorteile,wie:
1. Schnellere Betrugs-Prävention
2. Erfolgreiche Handlungsstrategien in Echtzeit
3. Deutliche Zeitersparnis bei typischen Standardauswertungen.
Einsatzgebiet der analytischen Datenbanklösung
Haupteinsatzgebiet einer analytischen Datenbanklösung im Banken-, Sparkassen- und Versicherungsumfeld ist die Auswertung von Kundendaten, wobei sich neben strukturierten auch unstrukturierte Daten sowie Geodaten in die Analyse einbeziehen lassen müssen.
Im Banken- und Sparkassenumfeld lassen sich über eine professionelle Datenbanklösung:
1. Daten in Echtzeit über Fachabteilungen hinweg auswerten2. Ein mehrkanaliges Kampagnen- und Angebotsmanagement realisieren
3. Interne Prozesse effizienter gestalten
4. Ein intelligentes Framework für Compliance und Risikomanagement sowie Performance-Kennzahlen etablieren.
Bei Versicherungsunternehmen sind zudem diese Faktoren relevant:
1. Schadensprognosen für einzelne Kunden als Grundlage einer individuellen Tarifkalkulation bestimmen2. Neukunden leichter durch individuelle Tarifangebote akquirieren, die auf die Lebenssituation des Interessenten zugeschnitten sind
3. Kunden mit hohem Kündigungsrisiko einfacher identifizieren
4. Gesetzliche Vorgaben zeitnah und zuverlässig einhalten sowie umsetzen.
Die Analysen können für Reportings und Auswertungen genutzt sowie in Echtzeit abgerufen werden. So erhalten Kundenbetreuer Analyseergebnisse ihrer Kennzahlen auf Knopfdruck. Sie können allgemeine Branchentrends und Entwicklungen sofort erkennen, Angebote individuell für den Kunden entwickeln sowie ausgesprochen schnell und flexibel auf Kundenwünsche reagieren. Dies wiederum führt zu mehr Abschlüssen und mehr Umsatz.
Blick in die Zukunft
Big Data ist ein wichtiges Thema, mit dem sich jedes Finanzinstitut auseinandersetzen sollte. Je früher das verborgene Potenzial der Datenberge erkannt wird, desto schneller lassen sich die Analysen für eine effiziente Geschäftsentwicklung einsetzen. Wer in dem stark umkämpften Bankenumfeld wettbewerbsfähig bleiben möchte, kommt um eine individuelle Kundenansprache nicht herum. Hierfür lohnt es sich, neue Wege zu gehen und mit einer umfassenden Big-Data-Strategie das volle Potenzial der Datenanalyse auszuschöpfen. Dabei werden verstärkt schnelle, intuitive und leicht zu implementierende Analyse-Lösungen zum Einsatz kommen, die idealerweise allen Mitarbeitern für die eigenständigen Auswertung zur Verfügung stehen. Dementsprechend stammen künftig Analyse-Vorgaben auch weniger aus der IT- und CIO-Ebene, sondern direkt aus den jeweiligen Fachabteilungen und werden nach deren individuellen Bedürfnissen festgelegt. So werden Schnelligkeit und Anpassungsfähigkeit zu kritischen Erfolgsfaktoren, um fundierte Werte aus den Daten zu gewinnen.aj
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/26668
Schreiben Sie einen Kommentar