ニューラルネットワークにおいて次元入力、1次元出力の回帰モデルを考えます。下図のようなモデルです。雑な図ですけど、まあ伝わりますよね。
![f:id:opabinia2:20180920201206p:plain f:id:opabinia2:20180920201206p:plain](https://cdn-ak.f.st-hatena.com/images/fotolife/o/opabinia2/20180920/20180920201206.png)
今回は、このモデルの誤差関数の出力ユニット活性での微分を計算します。なお活性化関数
は恒等関数です。(参考:ニューラルネットワークの概要)
ニューラルネットワークモデルを最適化するためには誤差関数をモデルのパラメータで微分し、勾配を求め、最急降下法などのアルゴリズムを適用する必要があります。今回の計算は、勾配を求めるための1ステップです。
訓練データが
個与えられ、出力を
と書くと、二乗和誤差
は
です。これを出力ユニット活性で微分します。活性化関数は恒等関数で、
ですから、
となります。ニューラルネットワークといっても、今考えているのは最後の出力層の部分だけですから、計算は単純です。
次回以降、2クラス分類モデル、多クラス分類モデルを考えても、出力ユニット活性で微分すれば全て式(3)の形となることを順番に見ていきます。