Das Potenzial kognitiver IT – Neue Hilfe gegen Hacker? Macht KI in der Security wirklich Sinn?
Die KI ist längst in unserem Alltag angekommen und hilft uns in verschiedenen alltäglichen Situationen. Doch auch die revolutionärste KI hat ihre Grenzen – besonders bei Sicherheitsfragen. Eine kritisch-konstruktive Betrachtung der KI-Fähigkeiten.
von Hans-Peter Fischer, Security Consulting KPMG
Das Interesse der Weltöffentlichkeit im Jahr 1996 war groß, als der Computer Deep Blue den damaligen Schachweltmeister Garri Kasparov in einer nach offiziellen Regeln bestrittenen Partie schlug. Der Russe schaffte es nicht, wie er selbst formulierte, die „Ehre der Menschheit“ zu verteidigen. Heutige Schachprogramme spielen in ihrer eigenen Liga; es gibt Weltmeisterschaften der Künstlichen Intelligenzen (KI). Das Elo-Rating, d.h. die numerische Spielstärke, übersteigt selbst die des im Moment besten menschlichen Schachspielers, Weltmeister Magnus Carlsen, bei Weitem.Der Vergleich „Mensch gegen Maschine“ im Schach ist für immer entschieden. Warum – und was hat das mit KI zu tun?”
Mensch vs. Maschine
Bei Deep Blue wurde die strategische Planung und Erfahrung eines menschlichen Schachspielers durch kombinatorische Berechnungen der KI ersetzt. Es herrscht Einigkeit unter den Experten, dass dieser Vorgang auch mehr und mehr Einzug in unser tägliches Leben halten wird. Doch wann ist dies im komplexen Feld der IT-Sicherheit der Fall? Können intelligente Programme den Mangel an Fachkräften ausgleichen? Welche Risiken birgt dies speziell in diesem Bereich?
Der Blick auf das „Spiel der Könige“ lohnt sich, um die Entwicklung von und Erwartungen an die Leistungsfähigkeit von Künstlicher Intelligenz zu erklären und einordnen zu können. Schach besitzt klare Regeln und gehört zu den Spielen mit vollständiger Information – theoretisch lassen sich aus jeder Stellung alle gültigen Züge vorausberechnen und so ein perfektes Spiel spielen. Das bedeutet, dass die Qualität des Spielers in erster Linie von der zur Verfügung stehenden Rechenleistung beziehungsweise von deren effizienter Nutzung abhängt. Der Fortschritt der Rechenleistung als auch die geschickte Nutzung der Ressourcen haben einen Stand erreicht, den der Mensch am Schachbrett niemals wieder einholen kann.
Cyber Security: Ein Spiel ohne Regeln?
Der Kampf gegen Hacker unterscheidet sich substantiell von der ehemaligen Paradedisziplin der KI-Forschung, dem Entwickeln „intelligenter“ Schachprogramme: es gibt bei der Abwehr von Cyber-Gefahren weder klare Regeln noch sind alle Informationen verfügbar …
… vielmehr ist es entscheidend, in sehr kurzer Zeit neue Zusammenhänge aus unvollständigen Informationen zu gewinnen. Die derzeit wohl bekannteste KI der Welt, IBM Watson, kann laut dessen Entwicklern bereits einen Teil im Kampf gegen Hacker beitragen.”
In der präventiven Erkennung kann IBM Watson keinen Beitrag leisten, hier sind „Sandboxing“ Anti-Malware-Programme, die – vereinfacht gesprochen – unbekannte Software in einer abgeschotteten Umgebung nach auffälligem Verhalten untersuchen, nach wie vor alternativlos. Im Fall der Ransomware WannaCry und ihres Nachfolgers Petya hat sich gezeigt, wo die Grenzen dieses Prozederes liegen.”
Ob Mensch oder KI: Anlernen muss sein
Die für die beschriebenen Anwendungen nötigen Heuristiken bildet IBM Watson anhand von tagesaktuellen Cyber-Security-Informationen, mit denen er gespeist wird. Bei diesem sogenannten Machine Learning handelt es sich um das Anlernen einer künstlichen Intelligenz in Form vorgegebener Muster und Gesetzmäßigkeiten, die nach einer Anlernphase anschließend auch auf unbekannte Daten angewendet werden können. Ein Anwendungsbeispiel für Machine Learning in der IT-Security ist das Erstellen von Mitarbeiter-Profilen („UBA – User Behaviour Analytics“), um so gravierende Abweichungen im Verhalten von Mitarbeitern zu erkennen. Die Idee dahinter ist, dass sich das Verhalten eines Mitarbeiters bei einem Angriff oder einem Betrug gegenüber seinem vorherigen Verhalten ändert.
Diese Praxis ist umstritten sowie auch limitiert: So ist das Anlernen komplex und die Definition eines verbindlichen und vollständigen Regelsets alles andere als trivial.”
Im Übrigen ergibt sich beim Anlernen eines Systems das Problem der Überanpassung: Während zu Beginn der Lernphase die erzielten Ergebnisse immer besser werden, fallen diese nach einer Phase der Sättigung sogar wieder schlechter aus. Der Grund hierfür liegt in der konsequenten und somit unreflektierten Anwendung und Priorisierung der vorab gegebenen Regeln – das System lernt nach einer gewissen Zeit quasi die initial übergebene Stichprobe aus Regeln auswendig und verwirft die eigentlich zugrunde liegenden Metriken.
Risiko: Blackbox „Cyber Security KI“
Die Vorstellung, ein System im Livebetrieb anzulernen, eröffnet bei genauer Betrachtung auch einen neuen Angriffsvektor. So versuchte Microsoft einst, dem Chatbot „Tay“ beizubringen, wie ein Jugendlicher zu kommunizieren. Möglich gemacht werden sollte dies durch die Anbindung an Twitter, Facebook und andere soziale Netzwerke, in denen Jugendliche mit dem Chatbot Nachrichten austauschen und ihn so quasi „nebenbei“ in ihrer Denk- und Sprechweise unterrichten sollten. Womit das Redmonder Unternehmen nicht gerechnet hatte, war, dass die anvisierte Zielgruppe nicht unbedingt die gleichen Interessen wie Microsoft verfolgte und Tay nicht ausschließlich mit trivialen Aussagen und Problemen 12- bis 18-jähriger Internetnutzer konfrontierte. Bevor die Verantwortlichen die Reißleine zogen und Tay vom Netz nahmen, war der Chatbot durch das „Training“ ein homophobes und rassistisches Programm geworden, da es von der Community im Internet überproportional mit entsprechenden Informationen gefüttert worden war.
Nun mag diese Überspitzung ein Extrembeispiel darstellen und im Kontext der IT-Sicherheit nur bedingt wiederholbar sein, jedoch bleibt die Frage, inwieweit echte Fälle in einer realen Lernumgebung zum Ziel beitragen, einen gültigen und lückenlosen Schutz vor Cyber Threats durch Machine Learning zu erzeugen. Desweiteren war im Fall von „Tay“ das Scheitern klar erkennbar, bei komplexen Systemen zur Abwehr von Cyber-Gefahren besteht das Risiko der Intransparenz. Es ist bereits bei existierenden Systemen bisweilen unklar, ob sie einen ausreichenden Schutz vor Cyber Threats bieten – wer möchte nun einem sich selbst weiterentwickelndem System attestieren, es habe alle möglichen Angriffsszenarien mit passenden Abwehrmaßnahmen versehen?
Denkbar ist also eine gezielte Manipulation der Lernmechanismen eines „intelligenten“ Cyber-Abwehrsystems, um den später folgenden Angriff dann als legitim bewertet zu bekommen.”
BI & Data Analytics: Don´t believe the hype
Wie sieht es in anderen Bereichen aus? Wie beim Schach ist die gestiegene Bedeutung von Machine Learning und kognitiver KI in den Bereichen Business Intelligence und Data Analytics weniger auf neue, innovative Verfahren, als auf die gestiegene Rechenleistung und die Möglichkeit, große Datenmengen zu verarbeiten, zurückzuführen.
Kognitive IT-Sicherheit: Mehr Schachtürke als Deep Blue
Die zugrundeliegenden Methoden der IT-Sicherheit haben sich seit 20 Jahren nicht wesentlich verändert und auch in absehbarer Zeit wird dies im Bereich der präventiven Absicherung so bleiben. Zu heterogen und dynamisch ist das Spielfeld, zu ungenau die gültigen Regeln, zu unterschiedlich die Spieler. Um Cyber-Gefahren zu begegnen, benötigt es mehr als nur Rechenleistung, um große Datenmengen in möglichst kurzer Zeit zu verarbeiten.
Zusammenfassend kann man sagen, dass kognitive IT-Sicherheitssysteme auf ihrem heutigen Stand nicht das „Next Big Thing“ sind.”
Ähnlich wie der Schachtürke aus dem Jahr 1769 wissen sie zwar auf den ersten Blick zu beeindrucken. Jedoch halten sie einer genaueren Prüfung nicht stand: zu groß sind die Unsicherheiten in Bezug auf die Problematik des Anlernens in einer realen Umgebung und hinsichtlich der Vollständigkeit sowie der Gültigkeit erkannter Analogien.aj
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/61000
Schreiben Sie einen Kommentar