キカガク(KIKAGAKU)でニューラルネットワークの概要と順伝播を学ぶ

Photo by Alex Knight on Unsplash

前回「キカガク(KIKAGAKU)で機械学習実践(教師なし学習)を学ぶ」のつづき

学習内容

ニューラルネットワークの概要

  1. ノード(Node)
  2. 入力層(Input Layer)
  3. 中間層(Intermediate Layer)
  4. 隠れ層(Hidden Layer)
  5. 出力層(Output Layer)
  6. 重み(Weight)
  7. バイアス(Bias)
  8. 全結合型(Fully Connected)
  9. 畳み込み型(Convolutional)
  10. 再帰型(Recurrent)

順伝播

  1. 線形変換
  2. 非線形変換
  3. 活性化関数
  4. 活性値(Activation)
  5. ロジスティックシグモイド関数(Logistic Sigmoid Function)
  6. 勾配消失
  7. 正規化線形関数(ReLU:Rectified Linear Unit)
  8. ソフトマックス関数(Softmax)
  9. 目的関数
  10. 平均二乗誤差(Mean Squared Error)
  11. 二値交差エントロピー(Binary Cross Entropy)
  12. 交差エントロピー(Cross Entropy)
  13. ワンホットベクトル(One Hot Vector)
Posted in  on 4/26/2020 by rteak |