Fluch und Segen der Künstlichen Intelligenz für die Informationssicherheit

Kommentieren Drucken


Ohne Zweifel: Wir befinden uns im Jahrhundert der Künstlichen Intelligenz (KI).

KI ist inzwischen an vielen Stellen fester Bestandteil unseres Alltags und zu einem Grundbestandteil von einer Vielzahl von Diensten und Anwendungen geworden. Beispiele sind sprachbasierte Assistenzsysteme wie Amazon Echo (bzw. Alexa), Gesichtserkennung zur Authentisierung z.B. mit Face ID am iPhone, Sprachübersetzungen z.B. mit dem Google Übersetzer und Chat Bots, die automatisiert Nutzeranfragen beantworten. Interaktionen der Form „Alexa, bin zuhause, mach Licht und die Klimaanlage an und bestell mir meine Lieblingspizza.“ wären vor einigen Jahren noch Science Fiction gewesen.

Überall dort, wo es um das Erkennen von Strukturen und Mustern in Daten geht, hat sich Maschinenlernen bewährt, insbesondere wenn aus einem genügend großen Datenvolumen neuronale Netze gut trainiert werden können. Tatsächlich kann eine KI bei solchen Aufgaben sogar besser als der Mensch sein. Ein besonders schönes Beispiel liefert ein kürzlich veröffentlichtes Forschungsergebnis, das gezeigt hatte, dass im Prinzip eine KI einen Schwarzen Hautkrebs deutlich besser erkennen kann als ein menschlicher Arzt [1].

Auch in der Informationssicherheit wird KI z.B. bei der Erkennung von Malware, Spam- und Phishing-Mails, Angriffsmustern in Netzwerken und bei der automatisierten Klassifikation von Daten für Data Loss Prevention (DLP) erfolgreich eingesetzt. Eine KI kann sogar zur Schwachstellenanalyse und zur Fehlersuche in Diensten und Anwendungen genutzt werden. Dabei werden sowohl Code-Analysen als auch Blackbox-Tests auf Schnittstellenbasis verwendet.

Soweit so gut. Nun zur Kehrseite der Medaille.
Wenn eine KI wie eben angesprochen sich auch dazu eignet in Systemen Schwachstellen zu finden, kann eine solche KI natürlich auch als Angriffswerkzeug missbraucht werden. KI als Schadsoftware ist eine höchst interessante Bedrohungsdimension.

Außerdem kann natürlich eine KI auch Fehler machen und falsche oder zumindest überraschende Lösungen finden, denn Software ist nun einmal praktisch nie fehlerfrei (und das gilt natürlich auch für jegliche KI). Ursachen können sein, dass ein Entwickler die Zielsetzung und die Rahmenbedingungen nicht genau genug spezifiziert hat oder beim Anlernen nicht genug oder unzureichend geeignete Daten zur Verfügung standen. Ein Beispiel ist bei einer Bilderkennung eine fehlerhafte Zuordnung eines Bilds zu einem Objekt. Wenn nun eine KI zur Erkennung des Gesichts eines Nutzers und damit zur Authentisierung z.B. für die Freischaltung eines Geräts dient, kann ein Fehler zunächst für den Nutzer ärgerlich sein, weil er das Gerät nicht mehr wie gewohnt entsperren kann. Spannend wird es aber, wenn auf diese Weise jemand Fremdes einen unerwünschten Zugang erhalten könnte [2].

Ein besonders schönes Beispiel für ein Fehlverhalten einer KI hat vor kurzem Alexa geliefert. Der Spiegel Online berichtete im Mai dieses Jahres, dass Alexa durch eine unglückliche Verkettung von Umständen auf einem Gerät vom Typ Amazon Echo ein Gespräch der Besitzer des Geräts ungewollt aufgezeichnet und dann sogar per E-Mail verschickt hat [3].

Eine KI kann auch durch entsprechende Eingaben bewusst ausgetrickst werden und tatsächlich besteht hier ein erhebliches Angriffspotential, wie ein im Februar dieses Jahres veröffentlichter Bericht aufzeigt [4]. Angreifer können unter Umständen eine KI kontrolliert zu Fehlentscheidungen bringen. Dies kann zunächst eine einzelne Eingabe sein, die zu einem falschen Ergebnis führt. Außerdem könnte ein Angreifer systematisch eine Vielzahl von Eingaben erzeugen, deren Muster eine selbstlernende KI verinnerlicht und sukzessive zu falschen Ergebnissen kommt. Hier kommt KI wieder als Angriffswerkzeug ins Spiel, denn das Finden von Mustern, die eine KI zielgerichtet manipulieren, könnte man ja wieder einer KI überlassen.

An dieser Stelle ist zunächst der Hersteller einer KI gefordert, der in der Softwareentwicklung seine KI so gestalten muss, dass sie robust gegen böswillig konstruierte Eingaben ist. Für den Nutzer ist wesentlich, dass er sich der Risiken der Nutzung von KI-basierten Systemen bewusst ist. Für die IT bedeutet dies, dass in den Sicherheitskonzepten auch die Nutzung von KI und die spezifischen Sicherheitsaspekte bei eigener Entwicklung einer KI-basierten Software berücksichtigt werden müssen. Nur, was ist eine sichere KI und was ist eine sichere Nutzung einer KI? KI bedeutet nun einmal oft Unschärfe und ein Fehlverhalten ist daher oft nicht unmittelbar ersichtlich und vermeidbar.

Verweise
[1] Siehe: https://academic.oup.com/annonc/advance-article/doi/10.1093/annonc/mdy166/5004443
[2] Siehe z.B.: https://www.mobilegeeks.de/news/apple-iphone-x-so-trickst-man-face-id-mit-einer-maske-aus/
[3] Siehe: http://www.spiegel.de/netzwelt/gadgets/amazon-echo-alexa-zeichnet-gespraech-auf-und-verschickt-es-a-1209462.html
[4] Siehe: https://maliciousaireport.com/

zugeordnete Kategorien: Archiv
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.