Inverse
$$A\cdot A^{-1}=A^{-1}\cdot A = I$$
역행렬과의 곱셈은 교환 법칙이 성립한다.
하지만 모든 행렬 A가 역행렬을 가지는 것이 아니다.
1) 역행렬은 언제 존재하는가?
가우스 소거법의 결과, n개의 pivot이 생길 때 역행렬이 존재한다(대각에 위치한 원소가 0이 아니어야 한다. 또한 pivot이 만들어지지 않더라도 행 교환으로 만들 수 있으면 역행렬이 존재한다.)
$$det(A)=\prod_{i=1}^{n}d_i$$
즉, $\prod_{i=1}^{n}d_i$가 0이라면 역행렬은 존재하지 않으며, det(A)도 가우스 소거법으로 구할 수 있다.
2) 역행렬은 unique하다.
3) A의 역행렬이 존재한다면,
$Ax=b \Rightarrow A^{-1}\cdot Ax=A^{-1}b$
$x=A^{-1}b$
$A^{-1}$는 unique하고, b도 이미 주어진 벡터이기 때문에 unique하다.
즉, $x$는 단 하나의 해를 가진다. (역행렬이 존재하는 연립 방정식의 해는 유일하다)
4) 0이 아닌 $x$에 대해 $Ax=0$이 성립하려면 $A^{-1}$이 존재해서는 안된다. 존재한다면 $A^{-1}Ax=A^{-1}0\Rightarrow x=0$인데, $x$가 0이라면 입력값이 모두 0이라는 뜻이므로 조건에 어긋난다.
5) $A=\begin{bmatrix}a&b\\c&d\end{bmatrix}, A^{-1}=\frac 1 {ad-bc}\begin{bmatrix}d&-b\\\ -c&a\end{bmatrix}$
이렇게 계산으로 역행렬을 구하는 것은 2차원까지다.
6) Diagmal Matrix
$\begin{bmatrix}d_1&0&0\\0&d_2&0\\0&0&d_3\end{bmatrix}$은 $\prod_{i=1}^{n}d_i\ne0$일 때만 역행렬이 있다.
$\Rightarrow \begin{bmatrix}\frac 1 {d_1}&0&0\\0&\frac 1 {d_2}&0\\0&0&\frac 1 {d_3}\end{bmatrix}$
7) 역행렬을 하면 순서가 달라진다.
$(ABC)^{-1}=C^{-1}B^{-1}A^{-1}$
Gauss-Jordan Method
3차원 이상의 $A^{-1}$을 계산할 때 사용하는 방법
$A\cdot A^{-1}=I$
$L^{-1}\cdot A\cdot A^{-1}=L^{-1}\cdot I$
$U\cdot A^{-1}=L^{-1}$
$U^{-1}\cdot U\cdot A^{-1}=U^{-1}\cdot L^{-1}$
$A^{-1}=U^{-1}\cdot L^{-1}$
ex)
$A\cdot A^{-1}=I$
$\begin{bmatrix}2&1&1\\4& -6&0\\ {-2}&7&2\end{bmatrix}\cdot A^{-1}=\begin{bmatrix}1&0&0\\0&1&0\\0&0&1\end{bmatrix}$
$\begin{bmatrix}2&1&1\\0& -8& -2\\0&0&1\end{bmatrix}\cdot A^{-1}=\begin{bmatrix}1&0&0\\ -2&1&0\\ -1&1&1\end{bmatrix}$
$\begin{bmatrix}2&0&0\\0& -8&0\\0&0&1\end{bmatrix}\cdot A^{-1}=\begin{bmatrix}\frac 3 2&-\frac 5 8&-\frac 1 4\\4&3&2\\ -1&1&1\end{bmatrix}$
$\begin{bmatrix}1&0&0\\0&1&0\\0&0&1\end{bmatrix}\cdot A^{-1}=\begin{bmatrix}\frac 3 4&-\frac 5 {16}&-\frac 1 8\\ -\frac 1 2&-\frac 3 8&-\frac 1 4\\ -1&1&1\end{bmatrix}$
$A^{-1}=\begin{bmatrix}\frac 3 4&-\frac 5 {16}&-\frac 1 8\\ -\frac 1 2&-\frac 3 8&-\frac 1 4\\ -1&1&1\end{bmatrix}$
이 내용을 기반으로 $n\times n$ 행렬로 확장 가능하다.
Transpose
$$a_{ij}\Rightarrow a_{ji}$$
Transpose는 반드시 Square Matrix일 때만 쓸수 있는 것이 아니다.
$\begin{cases}
(A+B)^T=A^T+B^T \\
(A+B)^{-1} \ne A^{-1}+B^{-1}\\
\end{cases}$
$\begin{cases}
(AB)^T=B^TA^T \\
(AB)^{-1}=B^{-1}A^{-1}\\
\end{cases}$
$(A^{-1})^T=(A^T)^{-1}$
Symmetric Matrix
$A^T=A$인 행렬(정사각 행렬이어야 한다.)
* $A$가 symmetric하고, invertible하다면 $A^{-1}$도 그렇다.
* $A=LU=LDU$라 할 때, $A^T=A$라면, $LDU=U^TDL^T$이라서 계산 쉬워짐
Correlation Matrix
$R=A^TA$
$R^T=R$
'강의록 > 선형대수' 카테고리의 다른 글
[선형대수] 6강. 영벡터공간과 해집합 (0) | 2020.03.24 |
---|---|
[선형대수] 5강. 벡터공간과 열벡터공간 (0) | 2020.03.24 |
[선형대수] 3강. LU 분할 (0) | 2020.03.18 |
[선형대수] 2강. 1차 연립방정식과 가우스소거법 (0) | 2020.03.18 |
[선형대수] 1강. 선형성 정의 및 1차 연립 방정식의 의미 (0) | 2020.03.18 |