Deep Learning(An MIT Press book) の要点メモシリーズ。
Chapter 7 Regularization for Deep Learning
7.5 Noise Robustness
- いくつかのモデルでは分散が無限小のノイズを入力に加えるのは、重みのノルムにペナルティをかけるのに等しい
- 一般にノイズを加えることはパラメータのshrinkよりも強力
- 隠れ層にノイズを加えるのは特に重要(cf. dropout)
- 重みにノイズを加える方法もある(cf. RNN)
7.5.1 Injecting Noise at the Output Targets
- 多くのデータセットでは正解ラベルに誤りが混ざっている
- ラベルにノイズを乗せたモデルで扱う
- 出力をsoftmaxに通す(ラベルスムージング)
- 0, 1に収束しないので無限に学習が続いて重みが肥大化する
- weight decay を使う
- 0, 1に収束しないので無限に学習が続いて重みが肥大化する
- 出力をsoftmaxに通す(ラベルスムージング)
- ラベルにノイズを乗せたモデルで扱う