NN学習続きです!(4章後半)

まず謝罪→Deep Learningを理解する③で使った勾配という言葉はミスだったみたいです。

 

勾配とは、例えばf(x_1, x_2)=x_1**2 + x_2**2という式があった場合、

x_1とx_2の取りうる範囲の偏微分をベクトルとしてまとめたもののようです;;

これが上式の勾配です。ここで、矢印の集中箇所が最もエネルギーの低い場所になります。

言い換えると、矢印は、各地点で最も値を最小にできる方向を表します!

そして、この勾配を利用し、内部パラメータを学習するのが勾配法(超有名人!)というわけですねぇ...

 

NNに必要なもの!

ここまででNNに必要なものがそろった!

  • 損失関数
  • ミニバッチ
  • 勾配
  • 勾配降下法
ちなみにこれで4章は終わり!
説明の中にさらっと出てきたラムダ関数の有能さに感動しつつ、今回は終わりです!