ニューラルネットワークにおいて次元入力、1次元出力の回帰モデルを考えます。下図のようなモデルです。雑な図ですけど、まあ伝わりますよね。
今回は、このモデルの誤差関数の出力ユニット活性での微分を計算します。なお活性化関数は恒等関数です。(参考:ニューラルネットワークの概要)
ニューラルネットワークモデルを最適化するためには誤差関数をモデルのパラメータで微分し、勾配を求め、最急降下法などのアルゴリズムを適用する必要があります。今回の計算は、勾配を求めるための1ステップです。
訓練データが個与えられ、出力をと書くと、二乗和誤差は
です。これを出力ユニット活性で微分します。活性化関数は恒等関数で、ですから、
となります。ニューラルネットワークといっても、今考えているのは最後の出力層の部分だけですから、計算は単純です。
次回以降、2クラス分類モデル、多クラス分類モデルを考えても、出力ユニット活性で微分すれば全て式(3)の形となることを順番に見ていきます。