Die Sorgen der Bethmann Bank über KI-gestützte Angriffe
von Dunja Koelwel
Herr Waldstein, Google Threat Intelligence bietet Einblicke in die Bedrohungslandschaft, sodass Google Sicherheitsteams auf der ganzen Welt detaillierte und aktuelle Bedrohungsinformationen zur Verfügung stellen können. Nutzen Sie dieses Tool?
Für CISOs besteht die Herausforderung vor allem darin, die Angebote der drei großen Hyperscaler Amazon Web Services (AWS), Microsoft Azure und Google miteinander zu vergleichen und die Unterschiede herauszuarbeiten.Angreifergruppen nutzen zunehmend KI zur Aufklärung gegen Zielorganisationen, deren Aktivitäten und Mitarbeitende. Informationen können hierbei in hoher Geschwindigkeit ausgewertet werden. Dazu kommen Folgeaktivitäten wie die KI-gestützte Ausnutzung von Schwachstellen, Social Engineering und KI-unterstützte Desinformationskampagnen. Hatten Sie schon Erfahrungen mit KI-gestützten Angriffen?
Wir sehen das auf jeden Fall als eine realistische Entwicklung im Bereich der Cybersicherheit. Diese Entwicklungen stellen erhebliche Herausforderungen für die Cybersicherheitsgemeinschaft dar. Es gibt aber auch Maßnahmen, die Organisationen ergreifen können, um sich besser zu schützen:
- Implementierung von fortschrittlichen Überwachungs- und Analysetools, die KI und maschinelles Lernen nutzen, um ungewöhnliche Aktivitäten und potenzielle Bedrohungen frühzeitig zu erkennen.
- Ein wichtiges Thema sind regelmäßige Schulungen der Mitarbeitenden, um das Bewusstsein für Social-Engineering-Angriffe und Desinformationskampagnen zu schärfen.
- Stärkung der Sicherheitsprotokolle und -kontrollen, einschließlich regelmäßigem Patching von Schwachstellen und Durchführung von Sicherheitsüberprüfungen.
- Zusammenarbeit und Informationsaustausch mit anderen Organisationen und Sicherheitsanbietern, um aktuelle Bedrohungsinformationen und Best Practices zu teilen.
Angreifergruppen zielen aber auch auf KI-Systeme, die innerhalb von Zielorganisationen eingesetzt werden, wie etwa organisationsinterne Chatbots. Zur Gewinnung sensibler Informationen können etwa sogenannte „Prompt Jailbreaks“ eingesetzt werden. Dabei werden spezielle Fragen generiert, die der KI internes Wissen entlocken. Haben Sie auch damit schon Bekanntschaft gemacht?
Für jedes Tool und Programm, das in Produktion eingesetzt werden soll, ist es unerlässlich, ein Risk Assessment (Risikoanalyse) durchzuführen, um eine Einstufung der Kritikalität zu bekommen, um dadurch die notwendigen Maßnahmen zur sicheren Einführung und Überwachung zu implementieren. Die Herausforderungen für die Absicherung von KI-Lösungen sind hier nochmal etwas gestiegen.
Daher setzen wir auf mehrere Stufen, etwa:
- Regelmäßige Überprüfungen und Tests der KI-Modelle, um Schwachstellen und mögliche Angriffsvektoren zu identifizieren.
- Implementierung von Mechanismen zur Überprüfung und Validierung von Eingaben, um sicherzustellen, dass sie keine bösartigen Inhalte enthalten.
- Sicherstellen, dass alle sensiblen Daten, die von KI-Systemen verarbeitet werden, sowohl während der Übertragung als auch im Ruhezustand verschlüsselt sind.
Mit dem AI Act (Artificial Intelligence Act) hat die EU einen umfassenden regulatorischen Rahmen, der darauf abzielt, die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) innerhalb der EU zu regeln vorgelegt.
Meiner Meinung nach gibt das Gesetz jetzt schon viele Anhaltspunkte und Regeln, die bei der Einführung und/oder Nutzung von KI-Systemen unterstützen. Daher sollte man mit der Umsetzung jetzt schon beginnen!”
Herr Waldstein, vielen Dank für das Gespräch.dk
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/217501
Schreiben Sie einen Kommentar