Nur Vertrauen schafft KI‑Akzeptanz!
Ein umfassender KI-Einsatz erfordert sowohl gesellschaftlich als auch politisch eine breite Akzeptanz. Das Vertrauen in die Technologie ist das entscheidende Kriterium. In Branchen wie der Finanzindustrie, die hohe regulatorische Anforderungen erfüllen muss, spricht dabei viel für die Nutzung einer vertrauenswürdigen KI. Sie ist erklärbar und beachtet rechtliche wie ethische Grundsätze. Bei der Umsetzung entsprechender KI-Szenarien werden vor allem Open-Source-Strategien, -Technologien und -Lösungen eine wichtige Rolle einnehmen.
von Armin M. Warda, FSI EMEA Chief Technologist bei Red Hat
Unternehmen nutzen derzeit verstärkt Methoden der KI (Künstlichen Intelligenz) und des ML (Maschinellen Lernens) – bei Finanzinstituten haben sie längst Einzug gehalten! Typische Beispiele sind das Risikomanagement oder die Anomalien-Erkennung im Zahlungsverkehr hinsichtlich Betrugserkennung und Geldwäsche. Bei Chatbots und Dokumentenanalysen werden zunehmend NLP (Natural Language Processing)-Verfahren verwendet. Und KI beziehungsweise ML unterstützen auch das Next-Best-Action-Marketing oder die Hyper-Personalisierung.Der Hype rund um ChatGPT zeigt, in welche Richtung die Entwicklung geht. Die Finanzindustrie wird sich diesem Trend stellen, so wie sie bereits KI-Vorreiter ist. Sie wird folglich die KI- und ML-Nutzung selbst in geschäftskritischen Kernsystemen vorantreiben. Allerdings sind Finanzinstitute dabei an strikte regulatorische Vorgaben gebunden.
Wie beim Einsatz aller neuen Technologien sind die allgemeinen Anforderungen der BaFin, der MaRisk und der BAIT zu beachten. Speziell für KI werden dabei weitere Regelungen folgen.”
Bereits vor knapp zwei Jahren hat etwa die BaFin ein Prinzipienpapier für den Einsatz von Algorithmen in Entscheidungsprozessen veröffentlicht, das erste Überlegungen zu den Mindestanforderungen für die Nutzung von KI enthält.
Der AI Act als neues Regelwerk
Wichtig wird aber künftig vor allem der AI Act (Artificial Intelligence Act) der EU sein, eine Verordnung für die Entwicklung und den Einsatz von KI. Sie wird ein regulatorisches Rahmenwerk enthalten, das auch für die Finanzindustrie gültig ist.
Auch wenn die endgültige Ausgestaltung derzeit noch offen ist, wird der AI Act vermutlich strikte Vorgaben für die Verwendung von KI-Systemen machen, beispielsweise im Hinblick auf Risikoanwendungen.”
Im Bankensektor wäre das etwa die Einschätzung der Kreditwürdigkeit eines Kunden unter Nutzung von KI-Modellen.
Die bestehenden und kommenden Vorgaben werden dazu führen, dass künftig vor allem Lösungen eine größere Rolle spielen, die das Kriterium „Vertrauenswürdige KI“ erfüllen.”
Sie bieten Nachvollziehbarkeit und Erklärbarkeit, sodass sie auch auf eine größere Akzeptanz stoßen können. Der Abschied von einem Blackbox-Ansatz und eine große Offenheit sind zudem die Basis für eine transparente und kontinuierliche Verbesserung von KI/ML-Modellen.
Rund um die Anwendung von vertrauenswürdiger KI in Unternehmen gibt es derzeit bereits etliche Initiativen, Europas größte ist dabei appliedAI.”
Die 2017 vom UnternehmerTUM gegründete Initiative verfolgt das Ziel, Europas Innovationskraft im Bereich KI zu stärken. Unter Beteiligung von NVIDIA, NetApp, Red Hat und der Munich Re hat sich appliedAI unter anderem mit dem Einsatz vertrauenswürdiger KI im Finanz- und Versicherungswesen beschäftigt.
Open Source und Hybrid Cloud als KI-Basis
Die Leitprinzipien einer vertrauenswürdigen KI sind Erklärbarkeit, Fairness, Transparenz, Nachvollziehbarkeit, Reproduzierbarkeit, Robustheit und Überwachbarkeit der KI-Modelle. Es stellt sich nun die Frage: Welche Methoden und Applikationen unterstützen bei der Umsetzung und Bereitstellung?
An diesem Punkt kommen Open-Source-Strategien, -Technologien und -Lösungen ins Spiel, die per sé auf Transparenz und Kollaboration ausgerichtet sind.”
Transparenz bedeutet unter anderem leicht zugängliche Daten und eine nachvollziehbare Entscheidungsfindung. Bei der Kooperation geht es um die enge Zusammenarbeit verschiedener Parteien, die zu besseren, effizienteren und nachhaltigeren Ergebnissen führt. Dieser Open-Source-Ansatz kann auch für KI/ML im Hinblick auf die Vertrauenswürdigkeit eine Schlüsselfunktion einnehmen.
Darüber hinaus zeichnet sich ab, dass gerade eine offene Kubernetes-basierte Hybrid-Cloud-Plattform, wie beispielsweise Red Hat OpenShift mit Security-Kontrollen, Versionierung und Archivierung die Basis für die sichere KI- und ML-Umsetzung darstellen kann, und zwar von der KI-Modell-Entwicklung über das KI-Modell-Training bis hin zur KI-Modell-Einbindung etwa in Bankanwendungen. Prinzipiell bietet eine offene Plattform eine gute Möglichkeit, um den Weg von der KI-Modellierung mit Trainings, Tests und Retrainings bis zur Bereitstellung der KI-Anwendungen im Produktivbetrieb zuverlässig zu gestalten und zu beschleunigen. Von zunehmender Bedeutung sind dabei vor allem MLOps (Machine Learning Operations)-Konzepte, die auf den bewährten DevOps-Prinzipien der Software-Entwicklung aufbauen und auf die effiziente Entwicklung, Bereitstellung, Verwaltung und Wartung von Machine-Learning-Modellen abzielen.
Das große Plus von MLOps-Prozessen ist, dass sie sowohl Data Scientists bei der Entwicklung als auch Betriebs-Teams beim Einsatz von ML-Modellen in Test- und Produktivumgebungen unterstützen.”
Nicht zuletzt bietet eine offene Hybrid-Cloud-Plattform auch eine große Flexibilität in Bezug auf die genutzte Infrastruktur: von einer On-Premises- bis zu einer Cloud-Umgebung. Der hybride Ansatz ermöglicht zum einen, dass die Entwicklung und das Training des ML-Modells in einer Public Cloud etwa unter Nutzung öffentlich verfügbarer Daten (“Open Data”) oder synthetischer Testdaten mit anschließender Einbettung des Modells in die On-Premises-Anwendung erfolgen kann. Zum anderen ist es auch umgekehrt möglich, die Modelle mit eigenen hochsensiblen Daten im eigenen Rechenzentrum zu trainieren und anschließend die trainierten Modelle in Anwendungen einzubetten, die in einer Public Cloud betrieben werden.
Hier wird zunehmend das instituts- und anwendungsspezifische Anpassen von öffentlich verfügbaren, riesigen Fundamental-Modellen eine große Rolle spielen (“domain-adaption by fine-tuning of open source foundation models”). Neuere Techniken wie etwa “Low-Rank Adaption (LoRA)” ermöglichen den Finanzinstituten dabei, die hohen Kosten und Zeitaufwände zu vermeiden, die ein vollständig eigenes Training solch großer Modelle mit sich bringen würde.
KI und ML sind derzeit in aller Munde und immer mehr Unternehmen nutzen die Technologien produktiv. Ein vorbehaltloser und unkritischer Einsatz ist allerdings in vielen Bereichen nicht vertretbar. Deshalb wird die vertrauenswürdige KI an Bedeutung gewinnen und in diesem Kontext dann auch transparente Open-Source-Strategien, -Technologien und -Lösungen.Armin M. Warda, Red Hat
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/154434
Schreiben Sie einen Kommentar