MISC

2019年10月14日

JPEG圧縮による画像分類器の識別結果の変動解析に基づく敵対的事例の検知法

コンピュータセキュリティシンポジウム2019論文集
  • 東 亮憲
  • ,
  • 栗林 稔
  • ,
  • 舩曵 信生
  • ,
  • Huy H. Nguyen
  • ,
  • 越前 功

2019
2019
開始ページ
975
終了ページ
981
記述言語
日本語
掲載種別

CNNを用いた画像分類器の研究が盛んに進められている一方で,その画像分類器を欺くことができる敵対的事例の存在が指摘されている.敵対的事例とは,意図的に造られた小さな摂動を元の画像に加えることで,画像分類器の識別結果が元の画像と異なるクラスを指す画像である.人間の目では元の画像との差異を判別することが困難であるため,敵対的事例を検知することが一般的には難しい.本研究では,敵対的事例と正常な画像を識別することを目的とする.画像分類器が誤った結果を出力する理由は,敵対的事例の微小なノイズが影響しているためである.提案手法では,ノイズ除去を目的としてJPEG圧縮によるフィルタ処理をすることで,画像分類器の識別結果の変動を解析する.JPEG圧縮の品質パラメータの変化に伴う識別結果の違いを特徴成分として,単純なしきい値を用いることにより敵対的事例と正常な画像を高精度で識別することができた.
While the research on image classifiers using CNN has been actively investigated, the study of adversarial example which can fool the image classifiers has been a potential threat in this research field. The adversarial example is created by intentionally adding small perturbations to an image so that an image classifier identifies a different class from the original class. It is not easy to detect adversarial example because the human eye cannot distinguish the difference from the original image. The objective of this study is to distinguish adversarial examples from natural images. The reason why an image classifier outputs an incorrect result is the tiny noise added to an original image. In this study, we analyse the fluctuation of the classification result by filtering with JPEG compression for the purpose of noise removal. By using a simple threshold, it is possible to discriminate adversarial examples and natural images with high accuracy from the characteristics of the fluctuations.

リンク情報
CiNii Research
https://cir.nii.ac.jp/crid/1572261552972702336?lang=ja
URL
http://id.nii.ac.jp/1001/00201337/
ID情報
  • CiNii Articles ID : 170000181108
  • CiNii Research ID : 1572261552972702336

エクスポート
BibTeX RIS