참고: 이 포스팅은 한양대학교 이상화 교수님의 강의를 기반으로 작성했습니다.
본격적으로 Chapter 1에 들어가기 전에 몇 가지를 학습하고 가야 한다.
1. Linearity(선형성)
선형성에 대해 배우는 이유: 선형성이 있는 것은 아무리 복잡해 보이더라도 모두 행렬로 표현해 해결할 수 있다.
(1) Linearity의 조건
어떤 함수, 연산이 Linearity를 가지려면 아래와 같은 두 조건을 만족해야 한다.
- $f(x_1 + x_2) = f(x_1) + f(x_2)$
- $f(ax) = af(x)$(a는 상수)
이 두 가지를 합치면 아래와 같다.
$$f(a_1x_1 + a_2x_2) = a_1f(x_1) + a_2f(x_2)$$
일반화 시켜보면 아래와 같이 표현할 수 있다.
$$f(\sum_{k = 1}^na_kx_k)=\sum_{k = 1}^na_kf(x_k)$$
(2) Linearity를 만족하는 것
-
원점을 지나는 1차 함수
$f(x) = mx$인 경우에는 $m(a_1x_1 + a_2x_2) = a_1mx_1 + a_2mx_2 = a_1f(x_1) + a_2f(x_2)$를 만족하므로 선형성을 가진다. -
미분과 적분
$$\frac{d}{dt}(a_1x_1(t) + a_2x_2(t)) = a_1\frac{d}{dt}(x_1(t)) + a_2\frac{d}{dt}(x_2(t))$$
$$\int (a_1x_1(t) + a_2x_2(t))dt = a_1 \int x_1(t)dt + a_2 \int x_2(t)dt$$ -
Matrix
$$A(a_1x_1 + a_2x_2) = a_1A(x_1) + a_2A(x_2)$$
(3) Linearity를 만족하지 않는 것
(1)에서 정의한 조건에 의해 2차, 3차, sin, cos 함수는 선형성을 가지지 못한다.
또한 1차 함수(직선)이라고 해서 모두 선형성을 가지는 것은 아니다. $f(x) = mx + n(n \neq 0)$과 같이 원점을 지나지 않는 1차 함수는 $m(a_1x_1 + a_2x_2) + n \neq a_1(mx_1 + n) + a_2(mx_2 + n)$이므로 조건을 만족하지 못한다.
(4) 정리
선형성의 유무를 판단하고 싶으면 조건이 성립하는지 보면 된다.
2. Basic Notations of Matrix
(1) Column vector(열벡터)
지금까지 배운 것은 $v = (a, b, c)$와 같이 표시할 수 있으며, 이를 행벡터라고 한다.
지금부터 배우는 벡터는 열벡터다.$v = \begin{bmatrix} a \ b \ c \end{bmatrix}$와 같이 표현할 수 있다.
굳이 열벡터를 사용하는 이유는 Matrix 곱, 연립 방정식의 해를 구하는 과정 등을 좀 더 간단하게 만들어 주기 때문이다.
열벡터의 장점
$v$와 $w$가 열벡터라면 이들을 뭉쳐 Matrix로 만들 수 있다.
$$\begin{bmatrix} v & w \end{bmatrix} = \begin{bmatrix} a_1 & a_2 \\ b_1 & b_2 \\ c_1 & c_2 \end{bmatrix}$$
$v$와 $w$가 Matrix로 변했으므로, 곱 연산을 하기 위해 $\alpha$, $\beta$도 열벡터로 변해야 한다.
$$\begin{bmatrix} \alpha \\ \beta \end{bmatrix}$$
그렇다면 $\alpha v + \beta w$은 다음과 같이 나타낼 수 있다.
$$\alpha v + \beta w = \begin{bmatrix} a_1 & a_2 \\ b_1 & b_2 \\ c_1 & c_2 \end{bmatrix} \begin{bmatrix} \alpha \\ \beta \end{bmatrix} = \begin{bmatrix} \alpha a_1 + \beta a_2 \\ \alpha b_1 + \beta b_2 \\ \alpha c_1 + \beta c_2 \end{bmatrix} = \alpha \begin{bmatrix} a_1 \\ b_1 \\ c_1 \end{bmatrix} + \beta \begin{bmatrix} a_2 \\ b_2 \\ c_2 \end{bmatrix}$$
즉, 열벡터로 바꿈으로써 얻는 장점은 $\alpha v + \beta w = \begin{bmatrix} a_1 & a_2 \\ b_1 & b_2 \\ c_1 & c_2 \end{bmatrix} \begin{bmatrix} \alpha \\ \beta \end{bmatrix}$에서 볼 수 있다. 열벡터인 $v$와 $w$는 하나로 뭉쳐 Matrix로 표현하고, 단순한 상수값이었던 $\alpha$와 $\beta$는 벡터로 표현하여 결과적으로 행렬과 벡터의 곱으로 선형 조합을 표현할 수 있다.
(2) Transpose(전치)
열과 행의 위치를 바꾸는 것이다.
$$\begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}^T = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix}$$
column vector는 row vector의 Transpose이다.
(3) Linear Combination(선형 조합)
선형 조합의 정의
선형 조합은 m개의 벡터에 임의의 상수값($k_1, k_2, ... , k_m$)을 곱하고, 이들을 합한 것이다.
$v = \begin{bmatrix} a_1 \\ b_1 \\ c_1 \end{bmatrix}, w = \begin{bmatrix} a_2 \\ b_2 \\ c_2 \end{bmatrix}$가 있다고 하자. 이 때 $\alpha v + \beta w$를 구해보자.($\alpha와 \beta$는 상수)
$$\alpha v + \beta w = \alpha \begin{bmatrix} a_1 \\ b_1 \\ c_1 \end{bmatrix} + \beta \begin{bmatrix} a_2 \\ b_2 \\ c_2 \end{bmatrix} = \begin{bmatrix} \alpha a_1 + \beta a_2 \\ \alpha b_1 + \beta b_2 \\ \alpha c_1 + \beta c_2 \end{bmatrix}$$
(4) 정리
이제부터는 단순하게 행렬과 벡터의 곱을 계산하는 데서 그치는 것이 아니라 각각의 column vector들이 $\alpha$와 $\beta$와 같은 계수의 선형 조합으로 이루어진다는 것을 이해해야 한다.
3. Vector
(1) Vector란?
$v =(a, b, c)^T = \begin{bmatrix} a \\ b \\ c \end{bmatrix}$가 의미하는 바는 원점으로부터 3차원 벡터 (a, b, c)가 지정하는 좌표를 가리키는 방향과 크기다.
(2) Vector의 덧셈
$v_1 + v_2 = (a_1 + a_2, b_1 + b_2)$
이미지 출처: https://www.sparknotes.com/physics/vectors/vectoraddition/section2/
벡터의 덧셈은 선형성이 보장된다.
(3) Vector의 뺄셈
이미지 출처: https://commons.wikimedia.org/wiki/File:Vector_subtraction.svg
(4) Vector의 inner product(내적)
이미지 출처: https://en.wikipedia.org/wiki/Dot_product
$$A \cdot B= |A||B| \cos \theta$$
$|A|\cos\theta$는 $B$에 $A$의 성분이 얼마나 있는지 나타낸다.(Chapter 3에서 배울 내용이다)
Chapter 1. Gauss Elimination(가우스 소거법)
가우스 소거법은 선형 연립 방정식을 푸는 방법에 대한 내용이다.
아래 연립 방정식을 풀어보자.
$x + 2y = 3$ ... (1)
$4x + 5y = 6$ ... (2)
-
$4\cdot(1) - (2) \Rightarrow y = 2, x = -1$
-
$\begin{bmatrix} 1 & 2 \\ 4 & 5 \end{bmatrix}\begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 3 \\ 6 \end{bmatrix}$
$\begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 1 & 2 \\ 4 & 5 \end{bmatrix}^{-1}\begin{bmatrix} 3 \\ 6 \end{bmatrix} = \begin{bmatrix} -1 \\ 2 \end{bmatrix}$
-
$\begin{bmatrix} 1 & 2 \\ 4 & 5 \end{bmatrix}\begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 3 \\ 6 \end{bmatrix}$
$x\begin{bmatrix} 1 \\ 4 \end{bmatrix} + y \begin{bmatrix} 2 \\ 5 \end{bmatrix} = \begin{bmatrix} 3 \\ 6 \end{bmatrix}$
평행사변형의 원리에 따라 원하는 값인 3, 6이 나오도록 하면 된다.
첫 번째 방법은 intersection으로 풀었고, 두 번째 방법은 행렬의 역원을 이용해 풀었고, 세 번째는 column vector의 선형 조합을 이용해 풀었다.
선형 조합을 이용하는 것이 intersection을 이용하는 것보다 좋은 점은 해결할 수 있는 문제의 범위가 넓다는 것이다.
정리
앞으로는 Row form이 아니라 Column form 방식으로 문제를 해결한다. Row form으로는 상상하거나 실제로 그릴 수 있는 한계가 3차원 까지다. 반면 Column form은 도형적인 의미를 전혀 모르더라도 연립 방정식을 풀거나 그 해가 어떤 의미를 갖는지 해석하는 것이 훨씬 수월하다.
'강의록 > 선형대수' 카테고리의 다른 글
[선형대수] 6강. 영벡터공간과 해집합 (0) | 2020.03.24 |
---|---|
[선형대수] 5강. 벡터공간과 열벡터공간 (0) | 2020.03.24 |
[선형대수] 4강. 역행렬과 전치행렬 (0) | 2020.03.19 |
[선형대수] 3강. LU 분할 (0) | 2020.03.18 |
[선형대수] 2강. 1차 연립방정식과 가우스소거법 (0) | 2020.03.18 |