Tiefe neuronale Netze und die Risikoprüfung
Die computergestützte Risikoprüfung stellt seit Jahren keine algorithmische Herausforderung mehr dar, zu gut funktionieren die etablierten scharf schließenden Algorithmen im Verbund mit einem erklärenden regelbasierten System. Die kürzlich erzielten Fortschritte im Bereich der künstlichen Intelligenz (tiefe neuronale Netze) könnten jedoch bei der Beschaffung von risikorelevanten Sekundärinformationen ihre Anwendung finden.
Dr. Beat Hörmann, dipl. Informatik-Ing. ETH, Triangulum
Die kürzlich erzielten Fortschritte im Bereich der künstlichen Intelligenz beruhen auf den Erfahrungen mit sog. tiefen neuronalen Netzen. Computerbasierte neuronale Netze und deren Wirkungsbereich sind seit Jahrzehnten bekannt. Mit dem fortschreitenden Ausbau der zur Verfügung stehenden Rechnerkapazität werden immer grössere neuronale Netze gebaut und in Betrieb gesetzt. Dabei hat man vor ein paar Jahren eine unerwartete Beobachtung gemacht:Tatsächlich nämlich scheinen neuronale Netze mit zunehmender Anzahl Neuronenschichten eine Fähigkeit zu entwickeln, die bislang mit den bekannten Algorithmen nicht erzielt werden konnte: Die gemeinhin dem Menschen zugeschriebene Fähigkeit der Intuition.”
Dem interessierten Leser wird der eindrückliche Sieg des Programms „AlphaZero“ über den weltbesten „Go“-Spieler in Erinnerung sein. (Im Spiel „Go“ können die einzelnen Spielzüge nicht, wie etwa im Schachspiel, durch sog. „brute-force“-Methoden im klassischen Sinn berechnet werden.)
Neue Anwendungen, wie etwa fühlende und einfühlsame Roboter, sind plötzlich in greifbare Nähe gerückt. Auch bei der Suche nach gebietsübergreifenden Zusammenhängen wird der Computer dank den tiefen neuronalen Netzen immer besser. Das Ausmaß der Auswirkungen dieser Entdeckung auf unsere Gesellschaft ist noch nicht absehbar.
Tiefe neuronale Netze und Risikoprüfung
In Bezug auf die computergestützte Risikoprüfung haben tiefe neuronale Netze, entgegen gelegentlich anderslautender Behauptungen in Fachzeitschriften, nur am Rande eine Auswirkung.
Bei der Risikoprüfung von Versicherungsanträgen geht es bekanntlich darum, festzustellen, ob die durch die versicherte Person verursachten tarifrelevanten Kosten die Tarifbeiträge übersteigen und daraufhin geeignete Maßnahmen vorzuschlagen, um einen möglicherweise festgestellten Kostenüberhang zu kompensieren.
Dieser Vorgang hat algorithmisch nichts mit Intuition als vielmehr mit dem Ziehen der richtigen Schlüsse auf der Basis der vorhandenen Informationen zu tun.”
Weiterhin haben neuronale Netze, wie im Übrigen alle Algorithmen, die dem Bereich des fallbasierten Schließens zuzuordnen sind, einen entscheidenden Nachteil gegenüber scharf schließenden Algorithmen: Sie sind bezüglich der Nachvollziehbarkeit des Resultats „Black-Boxes“. Um auf das bereits erwähnte Spiel „Go“ zurückzukommen: …
… das Programm „AlphaZero“ kann nicht erklären, weshalb es gewonnen hat. Aber genau diese Nachvollziehbarkeit ist bei der Risikoprüfung von zentraler Bedeutung.”
Genauso wie sich der Hammer für das Einschlagen von Nägeln im täglichen Gebrauch bewährt, so alt diese Erfindung auch ist, bewähren sich scharf schließende Algorithmen im Verbund mit einem regelbasierten System, das das Ergebnis der Risikoprüfung interpretiert und erklärt, seit Jahren in der Praxis.
Auffinden von relevanten Sekundärinformationen
Die Qualität des Ergebnisses der Risikoprüfung hängt nicht nur vom verwendeten Algorithmus ab, sondern auch von der Qualität der Daten, mit denen das Programm für die Risikoprüfung gefüttert wird. Sind die Daten falsch, so wird das Programm auch ein falsches Ergebnis liefern.
Mit Bezug auf die Risikoprüfung wird davon ausgegangen, dass die erfassten Antragsdaten richtig und risikorelevant sind. Doch in der Praxis sind bewusst oder unbewusst verschwiegene oder fehlerhafte Angaben unter dem Begriff „Anzeigepflichtverletzung“ ein Dauerthema.
Und genau in diesem Bereich der Abklärung der Richtigkeit von angezweifelten Informationen und bei der Suche nach weiteren relevanten Sekundärinformationen können tiefe neuronale Netze dank ihrer Fähigkeit gebietsübergreifende Zusammenhänge zu erkennen eine nützliche Anwendung bei der Antragserfassung darstellen.
Illusionen sollte man sich nicht hingeben: Der leider unter den Begriffen „Big-Data“ und „Data-Mining“ von einer sehr großen Firma in Fernsehwerbungen suggerierte Schluss, eine Maschine könne so gut wie alles herausfinden, wenn man ihr nur den Zugriff auf möglichst viele Informationen gibt, ist unzutreffend: Genau wie aus einem dampfenden Misthaufen, auf dem ein Hahn kräht, kein Gold (nicht einmal Eier) gewonnen werden kann, so kann aus einer Flut von unstrukturierten, ungeordneten, in Bezug auf das Suchgebiet irrelevanten Daten, zwar eine Aussage gewonnen werden, die jedoch, wenn sie nicht direkt als falsch erkannt wird, völlig unfundiert und im schlimmsten Fall künstlich generierte „Fake-News“ ist.
Es kommt nicht von ungefähr, dass zur Bekämpfung von „Fake-News“ der Einsatz von tiefen neuronalen Netzen im Gespräch ist. Dabei ist noch einmal zu beachten, dass heutige künstliche neuronale Netze ihre Entscheidung nicht begründen können. Darüber hinaus kann die Entscheidung falsch sein.
Im Sinne einer nachhaltigen Kundenbindung darf der Einsatz von „Big-Data“, „Data-Mining“ und tiefen neuronalen Netzen natürlich nicht dazu führen, dass sich der Antragsteller vorkommt, als würde ihm hinterher spioniert oder dass der Antragsteller gar mit falschen Behauptungen konfrontiert oder sein Antrag ohne sein Wissen auf der Basis von falschen Fakten geprüft wird.
Beat HörmannAus rein technischer Sicht ist der Einsatz von Künstlicher Intelligenz im Bereich der Beschaffung von relevanten Sekundärinformationen naheliegend.”
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/75159
Schreiben Sie einen Kommentar