Photo by Alex Knight on Unsplash
前回「キカガク(KIKAGAKU)で機械学習実践(教師なし学習)を学ぶ」のつづき
学習内容
ニューラルネットワークの概要
- ノード(Node)
- 入力層(Input Layer)
- 中間層(Intermediate Layer)
- 隠れ層(Hidden Layer)
- 出力層(Output Layer)
- 重み(Weight)
- バイアス(Bias)
- 全結合型(Fully Connected)
- 畳み込み型(Convolutional)
- 再帰型(Recurrent)
順伝播
- 線形変換
- 非線形変換
- 活性化関数
- 活性値(Activation)
- ロジスティックシグモイド関数(Logistic Sigmoid Function)
- 勾配消失
- 正規化線形関数(ReLU:Rectified Linear Unit)
- ソフトマックス関数(Softmax)
- 目的関数
- 平均二乗誤差(Mean Squared Error)
- 二値交差エントロピー(Binary Cross Entropy)
- 交差エントロピー(Cross Entropy)
- ワンホットベクトル(One Hot Vector)