前回の続き。前回はニューラルネットワークで回帰モデルを作った場合、誤差関数を出力ユニット活性で微分すると、出力と教師データの差となることを確認しました。(参考:出力ユニット活性で微分(回帰))
今回は2クラス分類モデルの場合で計算してみます。考えるモデルは、回帰と同じく、下図になりますが、今回は活性化関数は恒等関数ではなくシグモイド関数です。(参考:確率的生成モデル - シグモイド関数)
さて、このモデルの誤差関数をロジスティック回帰と同様に交差エントロピーで定義すれば、
です。出力ユニット活性での微分は合成関数の微分とシグモイド関数の微分より、
となり、回帰と場合と同じ結果が得られました。