機械学習に詳しくなりたいブログ

機械学習や数学について勉強した内容を中心に書きます。100%趣味です。記事は数学的に厳密でなかったり誤りを含んでいるかもしれません。ご指摘頂ければ幸いです。

固有ベクトルと基底

2×2の行列\mathbf Aの固有ベクトルを\mathbf{e}_1^{\prime},\mathbf{e}_2^{\prime}、対応する固有値を\lambda_1, \lambda_2とします。あるベクトル \mathbf{x}=(x_1,x_2)^T を、 \mathbf Aの固有ベクトルを基底として表すことを考えます。そのベクトルを \mathbf{x}^{\prime} とすると、


\mathbf{x}^{\prime} = x_1^{\prime}\mathbf{e}_1^{\prime} + x_2^{\prime}\mathbf{e}_2^{\prime} \tag{1}

と書けます。また、正規直交基底を\mathbf e_1, \mathbf e_2とすれば、


 x_1\mathbf{e}_1 + x_2\mathbf{e}_2 = x_1^{\prime}\mathbf{e}_1^{\prime} + x_2^{\prime}\mathbf{e}_2^{\prime} \tag{2}

です。\mathbf y = \mathbf A \mathbf xで線形変換して得られる\mathbf yについても同様に


 y_1\mathbf{e}_1 + y_2\mathbf{e}_2 = y_1^{\prime}\mathbf{e}_1^{\prime} + y_2^{\prime}\mathbf{e}_2^{\prime} \tag{3}

です。

さて、固有値と固有ベクトルで書いた通り、線形変換により、向きが変わらず定数倍になる方向を固有ベクトル、その定数倍が固有値でした。したがって、以下のように変形できます。


\begin{eqnarray*}
\mathbf{y} &=& \mathbf{A} \mathbf{x} \tag{4} \\
&=&\mathbf{A} x_1^{\prime}\mathbf{e}_1^{\prime} + \mathbf{A} x_2^{\prime}\mathbf{e}_2^{\prime} \tag{5}\\
&=& \lambda_1 x_1^{\prime}\mathbf{e}_1^{\prime} +\lambda_2 x_2^{\prime}\mathbf{e}_2^{\prime}  \tag{6} \\
&=& y_1\mathbf{e}_1+ y_2\mathbf{e}_2 \tag{7} \\
&=& y_1^{\prime}\mathbf{e}_1^{\prime} + y_2^{\prime}\mathbf{e}_2^{\prime} \tag{8}
\end{eqnarray*}

となりますから、式(6),(8)より


\begin{eqnarray*}
{y}_1^{\prime} &=& \lambda_1 x_1^{\prime} \tag{9} \\
{y}_2^{\prime} &=& \lambda_2 x_2^{\prime} \tag{10} 
\end{eqnarray*}

です。つまり線形変換を固有ベクトルで作られた座標系で表すと、各要素が固有値倍されるのみであるということになります。

回転行列の場合、全てのベクトルが回転されるので、固有ベクトルの性質である「変換によって定数倍になるベクトル」は存在しない、つまり固有ベクトルは求められないと思ったのですが、複素数で存在するそうです。この辺りは後でもうちょっと勉強が必要。