Page 249 - Handbuch Digitalisierung (2. Ausgabe)
P. 249
HANDBUCH DIGITALISIERUNG Kapitel 3.11 / IT-Security Auf Unbekanntes vorbereiten Im Kontext von Datensicherheit bedeuten KI-Systeme zwangsläu g, dass Organisationen sich auf neuartige Bedrohungen einstellen müssen. Prof. Dr. Jörn Müller-Quade erläuterte der TREND-REPORT-Redaktion das Forschungs- feld „Kryptographie und Sicherheit“ am KIT und mögliche kün ige Bedrohungsszenarien im Kontext von KI. Herr Prof. Müller-Quade, mit welchen e- men und Aufgaben beschä igt sich Ihr For- schungsbereich? Ich erforsche kryptographische Protokolle, etwa für Online- Banking oder Online-Wah- len. Für mich sind die- se Verfahren wie kleine Wunder, weil scheinbar Unmögliches erreicht wird, so kann etwa die Kor- rektheit der Auszählung ei- ner Online-Wahl nachgewiesen werden, ohne dass das Wahlgeheim- nis verletzt wird. Neben dem Nutzen, den sol- che Verfahren in der IT-Sicherheit haben, n- de ich sie auch für sich genommen faszinie- rend. Sogenannte Zero-Knowledge-Beweise können einen von einer Aussage überzeugen, ohne dabei aber mehr zu verraten als die Gül- tigkeit eben jener Aussage. Sichere Mehrpar- teienberechnungen erlauben es mehreren Teilnehmern gemeinsam, auf geheimen Ein- gaben der einzelnen Teilnehmer basierend ein Ergebnis verteilt zu berechnen – ohne dass ein Teil der Teilnehmer das Ergebnis mani- pulieren oder mehr erfahren kann als eben das Ergebnis. Wie man so etwas hinbekommt und wie man aus solchen mächtigen Baustei- nen größere Anwendungen bauen kann, sind Grundfragen der kryptographischen For- schung. Auf welche Gefahren und Szenarien im Kontext von KI-Technologien müssen wir uns einstellen? KI-Systeme können Angreifer un- terstützen, damit können bei- spielsweise Angri e, die bisher mühsam von Menschen ge- macht werden müssen, auto- matisiert werden, was zu einer enormen Zunahme solcher An- gri e führen wird. Konkret denke ich an „Spear Phishing“, also maß- geschneiderte Betrugs-E-Mails, die eine Schadso ware enthalten, die aktiv wird, wenn man den Empfänger dazu verleitet, eine Datei oder einen Link anzuklicken. KI-Systeme ent- wickeln in manchen Bereichen übermenschli- che Leistungen und könnten somit auch völlig neue Angri e nden. KI-Systeme, wie sie in Zukun in vielen Anwendungen stecken wer- den, können auch selbst angegri en werden. Wenn man das Verhalten einer KI analysiert, kann man diese KI leicht täuschen, oder wenn man Trainingsdaten verfälscht, kann ein sehr unerwünschtes Verhalten der KI bewirkt wer- 249 Herausforderungen