[선형대수학] Application of Eigenvectors and Eigenvalues

 

EigenVectors and Eigenvalues

\(\mathbf{Ax}\) 형태로 \(\mathbf{A}\) 매트릭스에 \(\mathbf{x}\)를 곱하면 때때로 운좋게 \(\mathbf{x}\) 의 스칼라를 곱한, 방향은 그대로인 벡터 형태가 된다. 여기서, \(\mathbf{A}\)는 $n$ by $n$ 매트릭스이다. 이때, 람다는 eigenvalue, \(\mathbf{x}\)는 eigenvector로 부르기로 한다. 그렇다면, 이 아이젠 형제들을 우리가 사용함으로써 도대체 무엇이 좋은걸까? 이는 \(\mathbf{A}^2\) 매트릭스를 볼 때 알 수 있다. 이 \(\mathbf{A}^2\) 는 여전히 $n$ by $n$ 행렬이다.

$$\mathbf{Ax}_{i} = \lambda_{i}\mathbf{x}_{i}, \ i = 1,2,\cdots,n$$


총 n개의 eigenvector, eigenvalue set이 존재할 수도 있지만, 더 적은 수가 있는 경우도 있다.

양변에 $\mathbf{A}$를 곱하면 다음과 같다.
$$\mathbf{A}^2\mathbf{x} = \mathbf{A}(\mathbf{Ax}) = \mathbf{A}(\lambda\mathbf{x}) = \lambda(\mathbf{Ax}) = \lambda(\lambda\mathbf{x}) = \lambda^{2}\mathbf{x}$$


\(\mathbf{x}\)는 \(\mathbf{A}\)뿐 아니라, \(\mathbf{A}^2\) 의 eigenvector 이기도 하다는 결론을 얻는다. 또한, eigenvalue 는 \(\lambda^2\)가 된다.
\(\mathbf{A}^{k}\mathbf{x} = \lambda^{k}\mathbf{x}\) 의 경우에서 모든 $k$에 대하여 이 성질은 성립하며, \(k = -1\)이라면, \(\mathbf{A}^{-1}\mathbf{x} = \frac{1}{\lambda}\mathbf{x}\)가 된다. 심지어 다음과 같이 응용할 수도 있다. growth population에 일반적으로 쓰이는 exponential case의 식을 아래와 같이 작성할 수 있다. \(e^{\mathbf{A}t} = e^{\lambda t}\mathbf{x}\)

special is GOOD! but useful is BETTER! 더욱 유용한 예시들을 확인해보자.

Combination of EigenVectors

$\ $임의의 벡터 \(\mathbf{v}\)를 잡자. \(\mathbf{A}\) 행렬에 총 $n$개의 독립적인 eigenvector들도 존재하는 상황으로 가정해보자. 이 독립적인 eigenvector들을 각각 basis로 잡고, \(\mathbf{v}\)가 eigenvector들 중 하나라면, \(\mathbf{v}\)는 이 basis들의 combination으로 표현할 수 있다.

$$\mathbf{v} = c_{1}x_{1} + c_{2}x_{2} + \cdots + c_{n}x_{n}$$


$$\mathbf{A}^{k}\mathbf{v} = c_{1}\lambda_{1}^{k}x_{1} + \cdots + c_{n}\lambda_{n}^{k}x_{n} \cdots (1)$$

이를 잘 활용하면, \(\mathbf{A}^{k}\)를 빠르게 계산할 수 있다.
만약 위의 \(\mathbf{A}^{k}\mathbf{v} = \mathbf{V}_k\) 로 놓으면, \(\mathbf{V}_{k+1} = \mathbf{A}^{k+1}\mathbf{v} = \mathbf{A}\mathbf{v}_k\)가 된다. 부르기 편하게 이를 discrete case로 임시로 부르자.

one tep difference equation

만약, 우리가 exponential case 인 \(e^{At} = e^{\lambda t}\mathbf{x}\)를 사용하면, \(dv/dt = \mathbf{A}\mathbf{v}\)가 된다. 부르기 편하게 이를 continuous evolution case로 임시로 부르자. 위에서 살펴본 discrete case, continuous case 모두 \((1)\) 식을 활용하여 빠르게 \(A^k\)를 계산할 수 있다.

Similar Matrices

\(\mathbf{A}\)와 similar(유사)한 행렬 \(\mathbf{B}\). 여기서 similar의 정의가 무엇일까? 이는 벡터들간의 유사도를 측정하는 것과는 조금 정의가 다른데, 간단히 \(\mathbf{A}\)와 \(\mathbf{B}\)가 같은 eigenvalue를 갖고있다면, 서로 similar한 행렬로 부른다. 수식으로 정의는 아래와 같다.

$$\mathbf{B} = \mathbf{M}^{-1}\mathbf{A}\mathbf{M}$$ 의 관계가 성립하면 서로 similar matrices라고 부른다. $$\mathbf{A}와 \mathbf{B}$$는 또한, 같은 eigenvalues를 갖는다.

즉, “두 행렬이 similar matrices 관계이다.” 라는 명제와 “두 행렬이 same eigenvalue를 갖는다.” 는 같은 뜻으로 이해할 수 있다. 하지만, \(\mathbf{M}^{-1}\mathbf{A}\mathbf{M}y = \lambda y\) 관계에서 아래의 두 사실을 혼동해선 안된다.

  • $y$는 \(\mathbf{A}\)와 같은 eigenvector를 갖는다. (False)
  • $y$는 \(\mathbf{A}\)와 같은 eigenvalue를 갖는다. (True)
$$\mathbf{AM}y = \lambda\mathbf{M}y \to \mathbf{A}(\mathbf{M}y) = \lambda(\mathbf{M}y) $$

즉, eigenvalue는 위에서 보이듯이 $\lambda$ 값으로 변하지 않는다. 하지만, eigenvector는 \(\mathbf{x}\)에서 \(\mathbf{M}y\) 로 변했다.

AB and BA is similar

\(\mathbf{AB}\)와 \(\mathbf{BA}\)는 서로 같은 eigenvalue를 갖는다. 이를 간단히 증명하려면, 아래와 같이 둘이 similar함을 보이면 된다.

$$\mathbf{M}(\mathbf{AB})\mathbf{M}^{-1} = \mathbf{BA}$$

이를 만족하는 \(\mathbf{M}\)은 어떤 값일까? 잠시 생각해보면 \(\mathbf{M} = \mathbf{B}\)를 만족하면 된다는 걸 알수 있다.

$\because \mathbf{BAB}\mathbf{B}^{-1} = \mathbf{BA}$

\(\sum(\lambda s)\) & \(\prod(\lambda s)\)

eigenvalue들의 합 또는 곱에 대한 다음과 같은 공식이 존재한다. 아래 공식은 모든 $n$ by $n$ 행렬에 통용된다.

  • sum of $\lambda$s = sum of diagonals = trace
  • multiply of $\lambda$s = determiant($\mathbf{A}$)

간단한 예시를 들어보면 다음과 같다. \(\mathbf{A} = \begin{bmatrix} 0 & 1 \\ -1 & 0 \end{bmatrix}\) 라는 anti-symmetric 행렬을 보자.

anti-symmetric 행렬 : tranpose(\(\mathbf{A}) = -\mathbf{A}\) 를 만족하는 행렬 $\mathbf{A}$

이 행렬은 임의의 행렬 \(\mathbf{x}\)와 곱해졌을 때 해당 행렬 $\mathbf{x}$를 90도 회전시키는 행렬이기도 하다. 기하학적으로 생각해봤을 때, 이 회전행렬 \(\mathbf{A}\)는 자신과 곱해지는 행렬을 90도로 회전시켜버리기 때문에, 원래 행렬을 상수배 했을 때 이 회전된 행렬과 같은 방향을 가르키는 것을 불가능하다. 즉, 이 anti-symmetric 행렬은 eigenvector를 가질 수 없다. 하지만 이 행렬의 eigenvector를 한 번 구해보자.

$$\mathbf{Ax} = \lambda\mathbf{x}$$
$$(\mathbf{A} - \lambda I)\mathbf{x} = 0$$
$$det(\mathbf{A} - \lambda I) = 0$$ ($\because$ 역행렬 존재 x)
$$\mathbf{A} - \lambda I = \begin{bmatrix} -\lambda & 1 \\ -1 & -\lambda \end{bmatrix}$$, $$det(\mathbf{A} - \lambda I) = \lambda^{2} + 1 = 0$$

여기서 우리는 \(\lambda = -i, i\)이라는 두 개의 eigenvalues를 얻는데, 이 둘은 비록 실수가 아님에도 불구하고 그 합은 0으로, A의 diagonal 값들의 합인 (0 + 0) = 0 과 같다.
또한, 두 허수의 곱 \(-i^{2} = 1\)은 $\mathbf{A}$의 determinant인 1과도 일치한다.

symmetric and definite matrices

symmetric matrices들은 eigenvalue들이 실수이며, eigenvector들이 서로 orthogonal 함을 수학적으로 표현하자. 우선 편의를 위해 우리는 우리가 임의로 정하는 행렬 \(\mathbf{A}\)나 \(\mathbf{S}\)가 full set of eigenvectors를 가졌다고 생각한다. 아래의 예시를 보자.

$$\mathbf{S} = \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix} (permutation\ matrix)$$
$$\lambda = 1, -1 $$
$$\mathbf{x} = \begin{bmatrix} 1 \\ 1 \end{bmatrix}, \begin{bmatrix} 1 \\ -1 \end{bmatrix}$$

\(\lambda\) 값들이 내림차순으로 diagonal element를 차지하는 행렬 \(\begin{bmatrix} 1 & 0 \\ 0 & -1 \end{bmatrix}\) 을 $\Lambda$ 로 부르자. 우리는 행렬 \(\mathbf{S}\)와 $\Lambda$가 서로 similar함을 보이고 싶다.
즉, \(\mathbf{M}^{-1}\mathbf{S}\mathbf{M} = \begin{bmatrix} 1 & 0 \\ 0 & -1 \end{bmatrix}\) 임을 보이자. 여기에서 S를 diagonalizing 하는 행렬 \(\mathbf{M}\)은 무엇일까?

$$\mathbf{SM} = \mathbf{M}^{-1}\Lambda$$
$$\mathbf{S}\begin{bmatrix} \mathbf{x}_1 \mathbf{x}_2 \end{bmatrix} = \begin{bmatrix} \mathbf{x}_1 & \mathbf{x}_2 \end{bmatrix}\Lambda \cdots (2)$$

우리는 여기서 $(2)$식이 항상 성립함을 깨달아야 한다. 여기서 어떻게 좌변과 우변이 항상 같다고 말할 수 있을까? $(2)$식을 약간 변형해보면 다음과 같다.

$$\begin{bmatrix} \mathbf{S}\mathbf{x}_1 & \mathbf{S}\mathbf{x}_2 \end{bmatrix} = \begin{bmatrix} \mathbf{x}_1 & \mathbf{x}_2 \end{bmatrix}$$

여기에서, \(\mathbf{S}\mathbf{x}_1 = \mathbf{x}_1, \mathbf{S}\mathbf{x}_2 = \mathbf{x}_2\) 는 항상 성립한다. (\(\because \lambda = 1, -1\)) 끝으로 우리는 아래와 같이 결론을 내릴 수 있다. \(\mathbf{A}\)는 \(\Lambda\)와 항상 similar 하며, \(\mathbf{M} = \mathbf{X}\)이다. \(\mathbf{A}^2\)의 경우, \(\mathbf{A}^2 = \mathbf{X}\Lambda\mathbf{X}^{-1}\mathbf{X}\Lambda\mathbf{X}^{-1} = \mathbf{X}\Lambda^{2}\mathbf{X}^{-1}\)이다. 즉, \(\mathbf{A}^2\)와 \(\Lambda^{2}\)는 similar 임을 알 수 있다.
마지막으로, \(\mathbf{S}\)의 경우에는 다음과 같다.

$$\mathbf{S} = \mathbf{Q}\Lambda\mathbf{Q}^{-1} = \mathbf{Q}\Lambda\mathbf{Q}^{T} = spectral\ theorem$$