論文

2021年

A Diffusion Theory For Deep Learning Dynamics: Stochastic Gradient Descent Exponentially Favors Flat Minima.

9th International Conference on Learning Representations(ICLR)
  • Zeke Xie
  • ,
  • Issei Sato
  • ,
  • Masashi Sugiyama

記述言語
掲載種別
研究論文(国際会議プロシーディングス)
出版者・発行元
OpenReview.net

リンク情報
DBLP
https://dblp.uni-trier.de/rec/conf/iclr/XieSS21
URL
https://openreview.net/forum?id=wXgk_iCiYGo
URL
https://dblp.uni-trier.de/rec/conf/iclr/2021
URL
https://dblp.uni-trier.de/db/conf/iclr/iclr2021.html#XieSS21
ID情報
  • DBLP ID : conf/iclr/XieSS21

エクスポート
BibTeX RIS