본문 바로가기

강의록/선형대수

[선형대수] 1강. 선형성 정의 및 1차 연립 방정식의 의미

참고: 이 포스팅은 한양대학교 이상화 교수님의 강의를 기반으로 작성했습니다.

  

본격적으로 Chapter 1에 들어가기 전에 몇 가지를 학습하고 가야 한다.

1. Linearity(선형성)

선형성에 대해 배우는 이유: 선형성이 있는 것은 아무리 복잡해 보이더라도 모두 행렬로 표현해 해결할 수 있다.

(1) Linearity의 조건

어떤 함수, 연산이 Linearity를 가지려면 아래와 같은 두 조건을 만족해야 한다.

  1. $f(x_1 + x_2) = f(x_1) + f(x_2)$
  2. $f(ax) = af(x)$(a는 상수)

이 두 가지를 합치면 아래와 같다.

$$f(a_1x_1 + a_2x_2) = a_1f(x_1) + a_2f(x_2)$$

일반화 시켜보면 아래와 같이 표현할 수 있다.

$$f(\sum_{k = 1}^na_kx_k)=\sum_{k = 1}^na_kf(x_k)$$

(2) Linearity를 만족하는 것

  1. 원점을 지나는 1차 함수
    $f(x) = mx$인 경우에는 $m(a_1x_1 + a_2x_2) = a_1mx_1 + a_2mx_2 = a_1f(x_1) + a_2f(x_2)$를 만족하므로 선형성을 가진다.

  2. 미분과 적분
    $$\frac{d}{dt}(a_1x_1(t) + a_2x_2(t)) = a_1\frac{d}{dt}(x_1(t)) + a_2\frac{d}{dt}(x_2(t))$$
    $$\int (a_1x_1(t) + a_2x_2(t))dt = a_1 \int x_1(t)dt + a_2 \int x_2(t)dt$$

  3. Matrix
    $$A(a_1x_1 + a_2x_2) = a_1A(x_1) + a_2A(x_2)$$

(3) Linearity를 만족하지 않는 것

(1)에서 정의한 조건에 의해 2차, 3차, sin, cos 함수는 선형성을 가지지 못한다.

또한 1차 함수(직선)이라고 해서 모두 선형성을 가지는 것은 아니다. $f(x) = mx + n(n \neq 0)$과 같이 원점을 지나지 않는 1차 함수는 $m(a_1x_1 + a_2x_2) + n \neq a_1(mx_1 + n) + a_2(mx_2 + n)$이므로 조건을 만족하지 못한다.

(4) 정리

선형성의 유무를 판단하고 싶으면 조건이 성립하는지 보면 된다.

2. Basic Notations of Matrix

(1) Column vector(열벡터)

지금까지 배운 것은 $v = (a, b, c)$와 같이 표시할 수 있으며, 이를 행벡터라고 한다.

지금부터 배우는 벡터는 열벡터다.$v = \begin{bmatrix} a \ b \ c \end{bmatrix}$와 같이 표현할 수 있다.

굳이 열벡터를 사용하는 이유는 Matrix 곱, 연립 방정식의 해를 구하는 과정 등을 좀 더 간단하게 만들어 주기 때문이다.

열벡터의 장점

$v$와 $w$가 열벡터라면 이들을 뭉쳐 Matrix로 만들 수 있다.

$$\begin{bmatrix} v & w \end{bmatrix} = \begin{bmatrix} a_1 & a_2 \\ b_1 & b_2 \\ c_1 & c_2 \end{bmatrix}$$

$v$와 $w$가 Matrix로 변했으므로, 곱 연산을 하기 위해 $\alpha$, $\beta$도 열벡터로 변해야 한다.

$$\begin{bmatrix} \alpha \\ \beta \end{bmatrix}$$

그렇다면 $\alpha v + \beta w$은 다음과 같이 나타낼 수 있다.

$$\alpha v + \beta w = \begin{bmatrix} a_1 & a_2 \\ b_1 & b_2 \\ c_1 & c_2 \end{bmatrix} \begin{bmatrix} \alpha \\ \beta \end{bmatrix} = \begin{bmatrix} \alpha a_1 + \beta a_2 \\ \alpha b_1 + \beta b_2 \\ \alpha c_1 + \beta c_2 \end{bmatrix} = \alpha \begin{bmatrix} a_1 \\ b_1 \\ c_1 \end{bmatrix} + \beta \begin{bmatrix} a_2 \\ b_2 \\ c_2 \end{bmatrix}$$

즉, 열벡터로 바꿈으로써 얻는 장점은 $\alpha v + \beta w = \begin{bmatrix} a_1 & a_2 \\ b_1 & b_2 \\ c_1 & c_2 \end{bmatrix} \begin{bmatrix} \alpha \\ \beta \end{bmatrix}$에서 볼 수 있다. 열벡터인 $v$와 $w$는 하나로 뭉쳐 Matrix로 표현하고, 단순한 상수값이었던 $\alpha$와 $\beta$는 벡터로 표현하여 결과적으로 행렬과 벡터의 곱으로 선형 조합을 표현할 수 있다.

(2) Transpose(전치)

열과 행의 위치를 바꾸는 것이다.
$$\begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}^T = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix}$$
column vector는 row vector의 Transpose이다.

(3) Linear Combination(선형 조합)

선형 조합의 정의

선형 조합은 m개의 벡터에 임의의 상수값($k_1, k_2, ... , k_m$)을 곱하고, 이들을 합한 것이다.

$v = \begin{bmatrix} a_1 \\ b_1 \\ c_1 \end{bmatrix}, w = \begin{bmatrix} a_2 \\ b_2 \\ c_2 \end{bmatrix}$가 있다고 하자. 이 때 $\alpha v + \beta w$를 구해보자.($\alpha와 \beta$는 상수)

$$\alpha v + \beta w = \alpha \begin{bmatrix} a_1 \\ b_1 \\ c_1 \end{bmatrix} + \beta \begin{bmatrix} a_2 \\ b_2 \\ c_2 \end{bmatrix} = \begin{bmatrix} \alpha a_1 + \beta a_2 \\ \alpha b_1 + \beta b_2 \\ \alpha c_1 + \beta c_2 \end{bmatrix}$$

(4) 정리

이제부터는 단순하게 행렬과 벡터의 곱을 계산하는 데서 그치는 것이 아니라 각각의 column vector들이 $\alpha$와 $\beta$와 같은 계수의 선형 조합으로 이루어진다는 것을 이해해야 한다.

3. Vector

(1) Vector란?

$v =(a, b, c)^T = \begin{bmatrix} a \\ b \\ c \end{bmatrix}$가 의미하는 바는 원점으로부터 3차원 벡터 (a, b, c)가 지정하는 좌표를 가리키는 방향과 크기다.

(2) Vector의 덧셈

$v_1 + v_2 = (a_1 + a_2, b_1 + b_2)$

image

이미지 출처: https://www.sparknotes.com/physics/vectors/vectoraddition/section2/

벡터의 덧셈은 선형성이 보장된다.

(3) Vector의 뺄셈

image

이미지 출처: https://commons.wikimedia.org/wiki/File:Vector_subtraction.svg

(4) Vector의 inner product(내적)

image

이미지 출처: https://en.wikipedia.org/wiki/Dot_product

$$A \cdot B= |A||B| \cos \theta$$

$|A|\cos\theta$는 $B$에 $A$의 성분이 얼마나 있는지 나타낸다.(Chapter 3에서 배울 내용이다)

Chapter 1. Gauss Elimination(가우스 소거법)

가우스 소거법은 선형 연립 방정식을 푸는 방법에 대한 내용이다.

아래 연립 방정식을 풀어보자.

$x + 2y = 3$ ... (1)
$4x + 5y = 6$ ... (2)

  1. $4\cdot(1) - (2) \Rightarrow y = 2, x = -1$

  2. $\begin{bmatrix} 1 & 2 \\ 4 & 5 \end{bmatrix}\begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 3 \\ 6 \end{bmatrix}$

    $\begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 1 & 2 \\ 4 & 5 \end{bmatrix}^{-1}\begin{bmatrix} 3 \\ 6 \end{bmatrix} = \begin{bmatrix} -1 \\ 2 \end{bmatrix}$

  3. $\begin{bmatrix} 1 & 2 \\ 4 & 5 \end{bmatrix}\begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 3 \\ 6 \end{bmatrix}$

    $x\begin{bmatrix} 1 \\ 4 \end{bmatrix} + y \begin{bmatrix} 2 \\ 5 \end{bmatrix} = \begin{bmatrix} 3 \\ 6 \end{bmatrix}$

    평행사변형의 원리에 따라 원하는 값인 3, 6이 나오도록 하면 된다.

첫 번째 방법은 intersection으로 풀었고, 두 번째 방법은 행렬의 역원을 이용해 풀었고, 세 번째는 column vector의 선형 조합을 이용해 풀었다.

선형 조합을 이용하는 것이 intersection을 이용하는 것보다 좋은 점은 해결할 수 있는 문제의 범위가 넓다는 것이다.

정리

앞으로는 Row form이 아니라 Column form 방식으로 문제를 해결한다. Row form으로는 상상하거나 실제로 그릴 수 있는 한계가 3차원 까지다. 반면 Column form은 도형적인 의미를 전혀 모르더라도 연립 방정식을 풀거나 그 해가 어떤 의미를 갖는지 해석하는 것이 훨씬 수월하다.