Skip to content

Latest commit

 

History

History
155 lines (118 loc) · 10.5 KB

File metadata and controls

155 lines (118 loc) · 10.5 KB

Vulnerabilities of Machine Learning

安全性評価手法のカテゴリ分類(仮)。

  • Adversarial example
  • Decision boundary manipulation
  • Stealing model and privacy data
  • Trojan
  • Unsafety framework and library
  • Other

Vulnerability

Adversarial example

MLモデルに入力するデータ(画像や音声等)に微小な細工を加えることで、モデルの判断を誤らせる手法。
微小な細工につき、データが細工されているか否か判断することは困難。

Decision boundary manipulation

訓練データを細工することで、MLモデルのDecision boundary(以下、決定境界)を操作する手法。
これにより、機械学習ベースのスパムフィルタや侵入検知等を回避することが可能となる。

Stealing model and privacy data

MLモデルの入出力情報から、モデルの内部ロジックや(機微情報を含む可能性のある)訓練データを復元する手法。
モデルが復元されることで、(ユーザにクエリ数で課金してる)クラウドサービスに打撃を与える。
また、訓練データに機微情報が含まれている場合、機微情報が漏洩する可能性もある。

Trojan

平時はノーマルなMLモデルとして動作し、特定の値を入力した際に攻撃者の意図した動作を行わせる手法。
機械学習版のTrojanのようなもの。

Unsafety framework and library

機械学習フレームワークやライブラリに存在する脆弱性を利用する手法。

Other

上記以外の手法。

Assessment tools

MLモデルの安全性を評価するためのツール。

Other contents

以上