MISC

2013年11月5日

ベイズ最適なdictionary learningの統計力学(ポスターセッション,第16回情報論的学習理論ワークショップ)

電子情報通信学会技術研究報告. IBISML, 情報論的学習理論と機械学習
  • 坂田 綾香
  • ,
  • 樺島 祥介

113
286
開始ページ
31
終了ページ
38
記述言語
日本語
掲載種別
出版者・発行元
一般社団法人電子情報通信学会

dictionary learning(DL)とは,対象とするデータがスパースに表現されるための基底(dictionary)をサンプルデータから学習する問題である.dictionaryを一意に同定するために必要なサンプル数はsample complexityと呼ばれ,これまで様々な先行研究において評価されてきた.sample complexityの値は,学習に用いる規則により変化する.本研究ではsample complexityの最小値を見積もるという目的でベイズ最適な学習則を用いた場合のsample complexityの典型時評価を行う.その結果,dictionaryの列ベクトルと行ベクトルの比αが1より大きい場合には,sample complexityはデータ次元のオーダーで十分であるということがわかった.さらに,αがある臨界値α_Mより大きい時,学習の成功を意味する巨視的な状態が大域的な安定解として存在することがわかった.この結果は,belief propagationなどの局所探索型の推論アルゴリズムによってO(N)のサンプル数でDLが成功することを示唆するものである.

リンク情報
CiNii Articles
http://ci.nii.ac.jp/naid/110009886344
CiNii Books
http://ci.nii.ac.jp/ncid/AA12482480
ID情報
  • ISSN : 0913-5685
  • CiNii Articles ID : 110009886344
  • CiNii Books ID : AA12482480
  • identifiers.cinii_nr_id : 1000080260652

エクスポート
BibTeX RIS