Impressum // Datenschutzerklärung

BSI-Studien zur Verteidigung von KI-Systemen

image_pdf

Auf dem Weg zu Prüfkriterien für KI-Systeme hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) drei Studien veröffentlicht, die Angriffe auf KI-Systeme und Verteidigungsmaßnahmen kategorisieren. Die Angriffstypen werden unterschieden in Evasion (falsches Ergebnis bei Nutzung der KI), Poisoning (manipulierende Daten beim KI-Training), Backdoor-Angriffe (Einführung von Schwachstellen beim KI-Training) sowie zur Extraction des KI-Modells, des Trainingsmusters oder einzelner Daten. Zur Prüfung der Widerstandsfähigkeit sollen unterschiedliche Wissensstände des Angreifers von voller Kenntnis (= white box) bis reine Beobachtung (black box) in den verschiedenen Lebensphasen der KI durchgespielt werden. Wie aus der datenschutzrechtlichen Perspektive werden verteilte (federated) Daten oder die Bündelung von Daten oder Modellen als sicherheitssteigernd empfohlen. Input-Daten sind um sensible Daten und Geschäftsgeheimnisse zu bereinigen.

Die Studien sollen u. a. Einstiegshürden in das Thema verringern, richten sich aber an Expert*innen. Vielleicht wartet man als Laie dann besser auf die Prüfkriterien.