前回「キカガク(KIKAGAKU)で順伝播を学ぶ」のつづき
学習内容
勾配降下法
- ニューラルネットワークのパラメータの最適化
- 学習率(Learning Rate)
ミニバッチ学習
- バッチ学習
- イテレーション
- エポック
- 確率的勾配降下法(stocastic gradient descent; SGD)
誤差逆伝播法
- 合成関数の微分
- 連鎖律(Chain Rule)
- パラメータの更新量の算出・逆伝播
感想
出てきた数式はノートに写して計算の流れを確認した。
実際に数字を当てはめ、計算してみた。
計算結果が合わないところがあったが、どちらが正しいのか不明。
後で改めて確認してみよう。