Mit hyperkonvergenter Infrastruktur aus dem Legacy-Lock-In; via SD(N/S) zum Software-Defined-Datacenter
Die Digitalisierung hat den Banken neue Kundenanforderungen und neue Mitbewerber beschert. Aspekte wie Echtzeit, ständige Verfügbarkeit und Sicherheit sind zentrale Aufgaben geworden, an denen sich die Banken-IT künftig ausrichten muss. Eine hyperkonvergente, virtualisierte Infrastruktur bietet hier die nötige Leistung. Wie ein Software-Defined-Datacenter gegen Engpässe helfen kann.
von Dinko Eror, Senior Vice President und Managing Director von Dell EMC Deutschland
Die Herausforderungen (Strukturwandel, Online, Internet, Sofortness, Finanzkrise, …) haben natürlich massive Auswirkungen auf die IT-Infrastruktur der Banken. War es bis zur Finanzkrise durchaus üblich, die großen Legacy-Systeme der 80er-Jahre mit gewissen Anpassungen fortzuschreiben, so sind diese Systeme nun endgültig ausgereizt – sie bieten nicht die nötige Flexibilität und Offenheit, um die digitalen Prozesse abzubilden.Damit sind veraltete IT-Systeme mittlerweile über die IT hinaus zu einem Risiko geworden.”
Das wird besonders bei den mobilen Systemen deutlich. Für die Kunden sind Smartphones und Tablets sowie die entsprechenden Apps mittlerweile wichtiger als die herkömmlichen Web-Plattformen. Wer hier nicht präsent ist, ist für die Kunden nicht mehr wahrnehmbar. Einige Institute sind in ihrer IT-Strategie daher bereits vom Konzept des “Mobile First” zum “Mobile Only” weiter gegangen, wollen den Kundenkontakt künftig also nur noch über die mobile Schiene laufen lassen. Wie auch immer – gerade Mobility bedeutet eine enorme Herausforderung für die Banken-IT, denn damit werden drei Forderungen der digitalen Welt weiter zugespitzt: sofort, immer und sicher.
Es gilt “Echtzeit” – alles andere ist zu langsam
In der vor-digitalen Ära war der Aspekt “Echtzeit” auf wenige Bereiche des Bankgeschäfts beschränkt; Wertpapiere mussten in Echtzeit gehandelt werden. Aber Kontoabfragen spiegelten den Stand von gestern wider und Überweisungen dauerten sowieso: bis die Belege erfasst und über die Landesbanken ausgetauscht waren, konnten schon eine paar Tage verstreichen; von den so entstehenden Wertstellungsdifferenzen lebten die Banken ja auch nicht schlecht. Für Geschäfte im E-Commerce ist das kein guter Ansatz – die Kunden wollen sofort zahlen, weil sie die Ware sofort erhalten wollen; und das soll natürlich auch um Mitternacht am Wochenende funktionieren und selbstverständlich per Smartphone. Man könnte solche Wünsche vielleicht ignorieren, aber Paypal und Amazon Payment bieten solche Leistungen an; und wer verhindern will, dass seine Kunden abwandern, muss eben “Echtzeit” in seinen Leistungskatalog aufnehmen.
Generell verlagern sich herkömmliche Bankverfahren mehr und mehr in die IT-Prozesse. So funktioniert das bewährte Vier-Augen-Prinzip nicht mehr, wenn die betreffenden Vorgänge rund um die Uhr laufen; es wird dann beispielsweise durch Verfahren der Künstlichen Intelligenz (KI) ergänzt oder ersetzt. Voraussetzung ist auch hier, dass diese in Echtzeit und jederzeit zur Verfügung stehen. Auch Sicherheit, in einer digitalen Bankenwelt ein ganz zentrales Kriterium, wird weniger durch bewaffnetes Wachpersonal als durch eine hochverfügbare IT gewährleistet.
Ein anderes Szenario, in dem Echtzeit für Finanzdienstleister eine zentrale Rolle spielt, ist “Fraud Detection“, mit der Kreditkartenabwickler missbräuchliche oder betrügerische Transaktionen zu unterbinden suchen – wobei natürlich zulässige Transaktionen nicht abgelehnt werden dürfen. Die Unterscheidung trifft KI. Fraud Detection muss extrem schnell erfolgen, weil der Kunde eventuell bereits am Terminal einer Kasse steht und zahlen möchte. Die IT muss genügend Rechenleistung vorhalten, damit die Plausibilitätsprüfung mit der nötigen Geschwindigkeit auf historische Daten des jeweiligen Kunden zugreifen kann.Echtzeit und ständige Verfügbarkeit heißt für die IT wiederum, dass die traditionellen Wartungsfenster nicht mehr zur Verfügung stehen.”
Die Systeme müssen daher in der Lage sein, sich automatisiert ständig auf aktuellem Stand zu halten.
Wenn, um ein weiteres Beispiel aus dem Bereich Sicherheit zu nennen, die Authentifizierung von Neukunden nicht mehr durch das umständliche Post-Ident-Verfahren, sondern per Video-Ident erfolgt – die “digitalen Kunden” wollen und sollen sofort an Bord geholt werden, auch nachts um halb drei –, so setzt das voraus, dass die entsprechenden Systeme bereitstehen. Die Meldung: “Wegen Wartung außer Betrieb, versuchen Sie es morgen wieder” wäre wohl nicht zielführend.
Hyperkonvergente Infrastruktur gegen Engpässe
Die gute Nachricht: Mit modernen x86-Architekturen lassen sich höchste Anforderungen, auch unter Berücksichtigung von Echtzeit und ständiger Verfügbarkeit, ohne weiteres erfüllen.
Mehrkern-Systeme sind heute so leistungsfähig, dass Standard-Server für alle Aufgaben ausreichen. Die Zeiten, da man für hohe Performance Spezialsysteme benötigte, die nicht nur teuer, sondern auch aufwändig zu warten waren, sind jedenfalls vorbei.
Rechenzentren mit virtualisierter Infrastruktur lassen sich mit Standard-Servern sehr gut skalieren, so dass künftige Anforderungen ebenfalls abgedeckt sind. Serverseitig ist Performance für Rechenzentren kein aktuelles Problem mehr.”
Das gilt im Wesentlichen auch für Massenspeicher: Mit dem verbreiteten Einsatz von SSDs gehören Engpässe bei Storage-Systemen der Vergangenheit an. Musste man sich bei drehenden Platten mit Zugriffszeiten von 8 Millisekunden zufrieden geben, so erreicht man mit SSDs im lesenden Zugriff bereits 0,1 Millisekunden; mit dem NVMe-Protokoll lässt sich die Performance weiter steigern, weil hier parallele IO-Kanäle zur Verfügung stehen. Auf diese Weise erreicht man Zugriffszeiten, die schon im Bereich des Hauptspeichers liegen. Und auch bei Massenspeichern setzt sich die Standardisierung durch: Das Konzept des “Software-definierten Rechenzentrums” erlaubt den Einsatz von Standard-Komponenten für unterschiedliche Aufgaben, so dass hohe Skalierbarkeit bei gleichzeitig hoher Performance hier ebenfalls sichergestellt ist.
Verbleibende Engpässe liegen daher weder bei den CPUs noch bei den Storage-Systemen, sondern eher bei den Leitungskapazitäten. Damit sind noch nicht mal die externen Verbindungen gemeint, die für eine ausreichende Performance zwischen Finanzdienstleistern und Telekommunikationsprovidern auf eine sichere Glasfaser-Infrastruktur angewiesen sind – was regional noch immer unterschiedlich realisiert ist. Auch innerhalb eines Rechenzentrums müssen die Leitungen mit der enorm gestiegenen Leistung von Rechnern und Storage Schritt halten.
Dafür bietet sich eine hyperkonvergente Infrastruktur an, deren Software-basierte, virtualisierte Architektur Prozessoren, Storage und Netzkomponenten direkt zu einem einheitlichen, konsistenten System zusammenschließt, so dass die interne Kommunikation gar nicht mehr über ein klassisches Netz erfolgt.
Der Flaschenhals Leitungskapazitäten wird also nicht durch neue Komponenten gedehnt, sondern komplett umgangen; vereinfacht: Auf Leitungen wird verzichtet.”
Was meist noch nicht so recht zur Flexibilität der hyperkonvergenten Infrastruktur passt, ist die zyklische Beschaffungsweise vieler Banken.
In der Regel wird zum Jahresanfang ein Budget aufgestellt, in dessen Rahmen dann Systeme beschafft werden können. Allerdings ist ein Jahr im digitalen Zeitalter ein recht langer Zeitraum, wer also auf der sicheren Seite sein will, verschafft sich Puffer und beschafft auf Vorrat. Das ist nicht effizient, passt vor allem aber nicht zu den flexiblen Skalierungsmöglichkeiten moderner Architekturen. “Digitale Unternehmen” gehen hier anders vor: Sie beschaffen Systeme entsprechend aktueller Geschäftserfordernisse; kann durch ein neues Geschäftsmodell mehr verdient werden, so kann auch mehr investiert werden. Hier besteht bei vielen Banken noch Spielraum zur Optimierung: Sie könnten auf diese Weise noch flexibler und effizienter werden. Und damit schon wieder ein Stück digitaler.aj
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/76344
Schreiben Sie einen Kommentar