DTI ‘LSS Suite’: Geldwäschegesetz erweitert KYC-Prinzip; neue Tools beschleunigen die Prüfung
Angesicht der Geldwäschegesetze der einzelnen Nationen, der internationalen Datenquellen und der verschärften Strafen, die bei der Begünstigung von Geldwäsche oder Terrorfinanzierung fällig werden, laufen verpflichtete Unternehmen schnell Gefahr, eine horrende Strafe zu zahlen, wenn sie ihre KYC-Prüfungen nicht auf dem aktuellen technischen Stand organisieren. Mit der LSS Suite der DTI (Website) soll sich diese Aufgabe in einem Bruchteil der Zeit bewältigen lassen – eine erstaunliche Anzahl an Umwandlungs- und Normalisierungs-Tools schaffe eine vergleichbare Datenbasis.
[M]it dem neuen Geldwäschereigesetz in der Schweiz sind nun auch Notare, Makler sowie große Digitalplattformen mit Kryptowährungen wie Bitcoin und Ethereum, Kunstvermittler zu KYC-Risikoanalysen (KYC – Know Your Customer) verpflichtet, wenn sie Kaufverträge mit einem Volumen von über 10.000 Euro über Barzahlungen abwickeln. Inzwischen geht der Kreis der „Verpflichteten“ weit über den Finanzsektor hinaus. Dazu zählen Güterunternehmen, also künftig beispielsweise auch Autohäuser, Luxusartikel- und Edelmetallhändler, die zudem bei Gold ähnlich wie bei Glücksspielanbietern bereits ab 2.000 Euro Herkunft und Besitzverhältnisse der Barmittel prüfen müssen.
Tokenizer zerlegen den Text einer Sucheingabe in eine Folge von logisch zusammengehörigen Einheiten, in sogenannte Tokens, mit denen in einem Text dann verfeinerte Suchen möglich sind.
Spellcheck überprüft bei einer Sucheingabe die korrekte Schreibweise; bei einem „falschen“ oder falsch geschriebenen Begriff liefert es mögliche Korrekturvorschläge (Did-you-mean).
Fuzzy-Matching liefert Resultate auch bei falscher und alternativer Schreibweise (Vertipper, Buchstabenverdreher, Texterkennungsfehler).
Phonetic-Matching liefert Resultate mit ähnlich klingenden Begriffen (z.B. Meyer, Maier, Meier)
Phrasing erkennt stehende Begriffe wie beispielsweise „Erster August“. Damit wird sichergestellt, dass beide Begriffe in unmittelbarer Nähe vorkommen müssen und nicht irgendwo verteilt im Text stehen.
Anti-Phrasing entfernt für die Suche nicht oder weniger relevante Wörter. Bei einer Suche nach Unternehmen z.B. Zusätze wie AG, Ltd, GmbH, etc.
Normalize normalisiert und transformiert Sucheingaben, um verschiedene Darstellungsformen, wie z.B. bei einem Datum oder Betrag, zu unterstützen.
Lemmatizing ist die Funktion, mit der ein Suchbegriff auf seine Grundform reduziert bzw. auf die verschiedenen Formen erweitert wird. Somit findet der Begriff „Haus“ z.B. auch Varianten wie „Häuser“ oder „Hauses“.
Synonyms erweitert die Suche auf ähnliche oder gleiche Namen; beispielsweise mittels Alias-Listen. Damit lässt sich bei einer Suche nach Peter auch Petrov oder Petrovic finden. Dies wird oft ergänzend zu mathematischen Algorithmen wie Phonetic (ähnlich klingend) oder Fuzzy-Search (ähnlich geschrieben) eingesetzt.
Thesaurus sind oft auch branchenspezifische Wörterbücher, um spezifische Begrifflichkeiten bei der Suche zu berücksichtigen; beispielsweise bankspezifische Begriffe wie Aktien, Wertpapiere, Fonds oder aber Organisationsstrukturen.
Umfangreiche Sorgfalts- und Dokumentationspflichten
KYC erfordert eine eindeutige Identifizierung und Überprüfung von Neukunden sowie eine regelmäßige Folgeanalyse bei Bestandskunden und eine Dokumentation dieser Risikobewertungen. Die zur KYC-Analyse verpflichteten Unternehmen sind damit Teil der Präventionsstrategie ihrer Behörden, um Geldwäsche und Terrorfinanzierung frühzeitig zu erkennen und zu verhindern. Zu der Identifizierung eines Vertragspartners gehören auch die Feststellung der tatsächlichen Besitzverhältnisse sowie des oder der wirtschaftlich Berechtigten und die Überprüfung des wirtschaftlichen Hintergrundes. Für das Onboarding eines Neukunden sowie die regelmäßig zu erfolgenden Due-Diligence-Nachprüfung von Bestandskunden und ihren Zahlungsströmen bedeutet dies, dass jedes Mal Dutzende interne und externe Datenquellen auszuwerten sind, die jeweils aus mehreren Millionen Datensätzen bestehen. Eine Auswertung der internen Datenquellen mit den verfügbaren Suchfunktionen relationaler Datenbanken mag noch schnell gelingen; aber eine umfassende Prüfung auch externer Quellen geht zu einem wirtschaftlich vertretbaren Aufwand nur mit einer IT-Lösung.
Die Lösung: Namematching mit ListSearch Compliance Server
Im Zentrum des IT-basierten KYC-Analysetools der DTI Schweiz AG, dem ListSearch Compliance Server (LSS Suite), steht das Namematching.
Um bei einer Risikoanalyse die gesuchte Person oder das Unternehmen aus einer Vielzahl von Datenquellen zu finden, kommen wie bei einer Suchmaschine für den Such- und Identifikationsprozess komplexe Algorithmen für semantische, linguistische und phonetische Analysen zum Einsatz, um Datenbankinhalte zunächst zu erfassen und zu indexieren. Das Problem dabei ist, dass die Daten aus den verschiedenen Quellen nur teilweise strukturiert sind und sich unstrukturierte Daten wie Fließtexte, Video oder Audiodateien sowie verpackte oder geschützte Dateien wie ZIP oder PDF ohne Aufbereitung einer Indexierung für die anschließende automatische Auswertung entziehen. Häufig müssen zunächst Texterkennungsprogramme Dokumente auslesen, Audioaufzeichnungen in Text (Speech to Text) umgewandelt werden, bevor sie überhaupt für eine Auswertung bereitstehen. Und bei der Auswertung mittels OCR (Optical Character Recognition) oder Speech-to-Text-Umwandlung passieren Fehler.
Zudem existieren unterschiedliche Schreibkonventionen, werden Personen-, Orts- und Unternehmensnamen in unterschiedlichen Varianten geschrieben. Hinzu kommen Zahlendreher, in vielen Sprachen unbekannte Umlaute oder Zeichensätze.
Was selbst Suchmaschinen wie Google oder Bing bisweilen nicht befriedigend gelingt, ist bei Suchmaschinen in Unternehmensanwendungen erst recht bisher nicht selbstverständlich, für KYC ist es aber unentbehrlich.”
Entgegen den Funktionen von Datenbanken, die weitgehend nur mit strukturierten Informationen umgehen können und meist lediglich bool’sche Operatoren (and, or, nor) zur Suche zur Verfügung stellen, sei die Suchlösung LSS Suite in der Lage, über standardisierte Schnittstellen sämtliche digital vorhandenen Informationen und Daten aufzubereiten und zu indexieren. Bei der LSS Suite liege der Fokus auf der Anbindung sämtlicher im Unternehmen vorhandener digitaler Datenquellen wie File-Systeme, Customer Relationship Management- und Enterprise Content Management-Systeme, gescannte und per OCR erkannte Dokumente, Sprach- und Videodateien.
Die LSS Suite wäre in der Lage, über Konnektoren unterschiedliche Typen von Datenquellen einzubinden, auszuwerten und zu indexieren. Damit Kunden ihre eigenen sensiblen Kundendaten nicht aus der Hand geben müssen, ist die LSS Suite eine On-Premise-Lösung, die also stationär auf eigenen Servern läuft. Externe Datenquellen werden dafür einmal eingelesen und Aktualisierungen je nach Bedarf täglich nachgeladen. Konnektoren haben die Aufgabe, Datenbanken, Filesystemquellen (World-Check, Thomson Reuters, SWIFT) aber auch Webinhalte (Presse, PEP- und Listen wie OFAC) zu erschließen. Für die Datenquellen beherrschen die LSS-Konnektoren zudem die inkrementelle Indexierung, also die automatische Indexierung von Datenänderungen. Für externe Quellen ist es zudem von entscheidendem Vorteil, dass die LSS Suite auf einer offenen Architektur wie XML oder ReST (Representational State Transfer) basiert.
Die über die Konnektoren gesammelten Daten bereite die LSS Suite vor ihrer Überführung in den Indexer auf. Über Filter (Conversion) werden die unterschiedlichen Dateiformate (Word, Excel, PowerPoint, PDF, HTML, RTF, TEXT, ZIP) in ein einheitliches, lesbares Format für den Indexer überführt.
Bei der Spracherkennung der zu indexierenden Inhalte sind darüber hinaus Kontrollen und Korrekturen notwendig. Hier stellt die LSS Suite nebst den üblichen Funktionen wie Tokenizierung, synonyme Darstellung, Spell Checking, Lemmatisierung, Entitäten-Extraktion, Phonetic, usw. für das Namematching zusätzliche hochgradig spezialisierte Funktionen bereit (siehe Kasten).
Schlüsselfunktionen im Indexer entscheiden über Erfolg und Sicherheit
Der Indexer in der LSS Suite bildet das Kernstück der Suchfunktionen und letztlich den Erfolg des Systems sowie dessen Fähigkeit, die richtigen Matches zu identifizieren und automatisch Alarm zu schlagen bei einem Treffer. Der Indexer hat die Aufgabe, die Daten bei der Indexierung intern so zu strukturieren, dass selbst in extrem großen Datenmengen und bei komplexen sowie sehr spezifischen Suchen, Resultate innerhalb Sekundenfrist zur Verfügung stehen. Basierend auf diesem Index ist es auch möglich, den Nutzer aktiv über neue Inhalte, die die vordefinierten Kriterien erfüllen, automatisch zu informieren. Deshalb stellt die LSS Suite neben einer einfachen Abfragesprache wie bei Google weitere Abfrageoptionen bereit.
Return on Invest in kürzester Zeit und Dokumentation der KYC-Analysen
Schon für Nutzer mit wenigen Dutzend Überprüfungen am Tag rechne sich das Tool in kürzester Zeit, so der Hersteller. Selbst erfahrene Compliance-Mitarbeiter bräuchten für jeden Kunden im Schnitt mindestens fünf Minuten. Dieser Aufwand sei auch regelmäßig mit Bestandskunden fällig. Bereits bei Banken mittlerer Größe kommen mit bis zu 70.000 Neu- und Bestandskunden pro Jahr im Ergebnis schnell drei bis vier Vollzeitstellen zusammen, die sich über LSS Suite substituieren ließen. aj
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/107784
Schreiben Sie einen Kommentar