今回は「畳み込みニューラルネットワークの精度向上 - KIKAGAKU」を学ぶ。
学習内容
ベースモデルを作成する
- データセットの準備
- モデルの定義と学習
- 結果の確認
最適化アルゴリズム
- SGD (Stochastic Gradient Descent: 確率的勾配降下法)
- Momentum SGD
- RMSprop
- Adam (Adaptive moment estimation)
過学習対策
- ドロップアウト
- 正則化 (Regularization)
- 早期終了
- バッチノーマリゼーション
活性化関数
ソースコードと実行結果
ベースモデル
Fig.1 データセット
Fig.2 Accuracy
Fig.3 Loss
過学習対策(ドロップアウト)
Fig.4 Accuracy
Fig.5 Loss
過学習対策(正則化)
Fig.6 Accuracy
Fig.7 Loss
過学習対策(早期終了)
Fig.8 Accuracy
Fig.9 Loss
過学習対策(バッチノーマリゼーション)
Fig.10 Accuracy
Fig.11 Loss
活性化関数
Fig.12 活性化関数