機械学習に詳しくなりたいブログ

機械学習や数学について勉強した内容を中心に書きます。100%趣味です。記事は数学的に厳密でなかったり誤りを含んでいるかもしれません。ご指摘頂ければ幸いです。

2次形式と対称行列

任意の2次形式\mathbf{x}^{T}\mathbf{A}\mathbf{x}は対称行列を使って書き換えられることを確認します。ここで、


  \mathbf A = \left(
    \begin{array}{cccc}
      a_{11} & a_{12} & \ldots & a_{1n} \\
      a_{21} & a_{22} & \ldots & a_{2n} \\
      \vdots & \vdots & \ddots & \vdots \\
      a_{n1} & a_{n2} & \ldots & a_{nn}
    \end{array}
  \right), 
\mathbf{x} =  \left(
\begin{array}{c}
x_1 \\
x_2 \\
\vdots \\
x_n
    \end{array}
  \right)
\tag{1}

とします。

\mathbf{x}^{T}\mathbf{A}\mathbf{x}を書き出すと、\displaystyle \sum_{i=1}^{n}\sum_{j=1}^{n}a_{ij}x_i x_jと書けます。ここで、x_i x_j = x_j x_iですから、


\displaystyle a_{ij}x_{i}x_{j} + a_{ji}x_{j}x_{i} =\frac{a_{ij} + a_{ji}}{2}x_{i}x_{j} + \frac{a_{ij} + a_{ji}}{2}x_{j}x_{i}    \tag{2}

となります。よって、


\displaystyle \mathbf{x}^{T}\mathbf{A}\mathbf{x} = \sum_{i=1}^{n}\sum_{j=1}^{n} \frac{a_{ij} + a_{ji}}{2}x_{i}x_{j} \tag{3}

と書くことができます。

ここで、


\displaystyle  a_{ij}^{\prime} = \frac{a_{ij} + a_{ji}}{2} \tag{4}

とすれば、a_{ij}^{\prime}=a_{ji}^{\prime}ですから、a_{ij}^{\prime}で構成される対称行列\mathbf{A}^{\prime}によって


\mathbf{x}^{T}\mathbf{A}\mathbf{x} = \mathbf{x}^{T}\mathbf{A}^{\prime}\mathbf{x} \tag{5}

と書くことができ、任意の2次形式は対称行列を使って表せることが確認できました。