최고점과 최저점 예측하기 – 주식 가격에 대하여

시스템 참여자로서 현재 시스템의 최고점과 최저점을 예측할 수 있을까? (global optimal 뿐만 아니라 local optimal이라도)

예컨대 주식 시장에서 현재 주식의 가격이 최고점인지 혹은 최저점인지 예측할 수 있을까?

모든 시스템에 대응 시킬 수는 없지만, 주식 시장도 꽤 여러 시스템에 대응할만한 조건을 갖고 있기 때문에, 주식 시장을 조건으로 최고점-최저점 예측이 가능한지를 생각해 보자.

가정

예측이 가능한지 생각해 보기 앞서 논리 전개에 필요한 몇 가지 가정이 필요하다.

  1. 주식에서의 가격이란 실제 거래가 이루어지는 가격을 의미한다.
    • A가 100만원에 주식을 팔겠다고 하더라도 아무도 그 가격에 매수를 해주지 않으면 가격은 성립하지 않는다. 역으로 A가 어떤 주식을 50만원에 사겠다고 하더라도 아무도 그 가격에 매도를 해주지 않으면 가격은 성립하지 않는다.
  2. 주식 시장에는 거래 상대자와 거래 경쟁자 또한 존재한다.
    • 거래 상대자란 내가 시장에 주식을 팔 때 주식을 사는 사람, 혹은 내가 주식을 살 때 나한테 주식을 파는 사람을 의미한다.
    • 거래 경쟁자란 내가 시장에 주식을 살 때 같은 주식을 주식을 사려는 사람, 혹은 내가 주식을 팔려고 할 때 같은 주식을 팔려는 사람을 의미한다.

일반적으로 무엇이 증명 가능한지를 따지기는 어렵고, 대신 반증하기는 쉽기 때문에, 거래 가격의 최고점과 최저점을 예측 가능한 마법같은 가격 계산 함수 f가 있다고 가정하고 이것이 논리적으로 불가능하다는 식으로 논리를 전개하자.

상황 1

  • 거래 가격의 최고점과 최저점을 예측가능한 계산 함수 f가 시장에 단 1개 존재할 경우

거래 가격의 계산 함수가 시장에 단 1개 존재해서 가격의 최고점과 최저점을 예측해 준다고 하자. 내가 주식을 팔려고 할 때 계산된 최고점에서 팔고, 주식을 사려고 할 때 계산된 최저점에서 사면 매우 훌륭할 것이다.

문제는 이 경우 해당 최고점과 최저점을 나만 알고 있다는 것이 아니다. 거래 상대자도 그 시점을 알고 있기 때문에, 어느 누구도 최고점과 최저점에서 거래를 하려 하지 않을 것이다.

어떤 바보가 이 가격이 최고점이라는 걸 아는데 매수를 해줄 것이며, 이 가격이 최저점이라는 걸 아는데 매도를 해줄 것인가. 결국 최고점-최저점 가격은 형성되지 못하며 계산 가능 함수의 결과는 틀렸다는 것이 된다.

상황 2

  • 거래 가격의 최고점과 최저점을 예측할 수 있는 계산 함수 f가 시장에 2개 이상 존재할 경우

거래 가격의 계산 함수가 시장에 2개 이상 존재하는 경우 다시 2가지 경우가 있을 수 있다.

상황 2-1

  • 2개 이상의 계산 함수가 같은 예측값을 계산할 때

이 경우는 상황 1과 동일하다. 어떤 알고리즘이었든 결과가 같다면 모두가 그 가격이 최고점-최저점 임을 알게 되고, 그 시점에서는 어떠한 거래도 일어날 수 없다. 결국 모든 예측 함수가 틀렸다는 것이 된다.

상황 2-2

  • 2개 이상의 계산 함수가 다른 예측값을 계산할 때

만일 주식을 매도하려는데 예측 함수 f1이 가격의 최고점을 100이라고 예측했고, 예측 함수 f2가 최고점을 90이라고 예측했다고 하자. 이 경우 시장에서의 거래 가격은 90에 형성된다. 

시장에는 거래 경쟁자가 있게 마련이고, 나보다 경쟁자가 더 싼 가격에 매도를 하게 되면 매수자는 바보가 아닌 이상 싼 가격에 매수를 하게 된다. 이 경우 더 낮은 가격을 예측한 f2는 맞고, 상대적으로 비싼 가격을 예측한 f1은 틀린 예측이 된다. –보다 전략적인 생각을 해보면 90에 사서 100에 파는 차익 거래가 가능할 것이다

역으로 주식을 매수하려는데 예측 함수 f1이 가격의 최저점을 50이라고 예측했고, f2는 40이라고 예측했다고 하자. 이 경우 시장에서의 거래 가격은 50에 형성된다. 매도자는 바보가 아닌 이상 비싼 가격에 매도를 하기 때문이다. 이 경우 더 높은 가격을 예측한 f1은 맞고, 상대적으로 싼 가격을 예측한 f2는 틀린 예측이 된다. –마찬가지로 전략적인 생각을 해보면 40에 사서 50에 파는 차익 거래가 가능할 것이다.

사실 엄밀히 말해서 예측 함수가 서로 다른 결과 값을 만들어 냈다는 것 자체가 애초에 global한 최적점 계산이 불가능하다는 뜻이 되긴 하지만, 여하건 이 사례는 주식의 가격은 주식 자체의 가치에 의해서가 아니라 거래 상대자와 거래 경쟁자에 의해서 결정된다는 예시를 들기 위해 정리해 보았다. 

결론

거래 상대자와 거래 경쟁자가 있는 시스템에서 가격의 최고점과 최저점을 계산하는 것은 불가능하다.

에너지, 생명, 지능

이 세상을 지배하는 법칙이 열역학 제 2법칙임을 기준으로 본다면, 생명이란 에너지 확보를 최대화하고, 에너지 소모를 최소화 하는 존재라고 해도 무방하리라 생각 한다. 

에너지 최소화의 법칙 –대칭성(symmetric)도 그 중 하나라고 생각 함– 이 만물을 구성하는 원리로 작용하는 것과 같은 맥락에서 생명은 살아가기 위해 에너지 확보를 최대화 하는 방향으로 행동하는 존재라는 것.

에너지 최소화 법칙이 비단 생명이 아닌 것에서도 나타남 –대부분의 물리적 구조– 을 생각해 본다면 생명과 생명이 아닌 것의 구분은 에너지 확보 최대화를 하는 방향으로 움직이느냐 아니냐로 구분해 볼 수 있을 것 같다.

모든 생명이 지능(intelligence)을 가졌다고 볼 수 없기에 ‘지능을 가진 생명체의 범위’는 전체 생명의 범위보다 작을 것이다 –생명이 아닌 것에 지능을 붙이는 사례가 있기 때문에 그 둘은 포함 관계는 아니라고 가정.

그렇다면 지능을 가진 생명체와 지능이 없는 생명체의 차이는 무엇일까? 이 역시 에너지의 관점에서 정의를 내려본다면 다음과 같이 설명할 수 있을 것이다.

지능이 없는 생명이 에너지 확보의 최대화에만 집중하고 있는 것이라면, 지능이란 단기적으로 에너지 확보가 줄어들더라도 장기적으로 에너지 확보를 더 늘릴 수 있는 방향으로 움직이게 하는 것이라는 것. –에너지 확보의 최대화는 에너지 소비의 최소화로 바꾸어도 동일하다.

다시 말해 지역 최적점(local optimal)에 머무르지 않고, 당장의 손실을 감수하고서도 수집된 정보를 바탕으로 전역 최적점(global optimal)[1]을 향해 가도록 판단하는 것이 지능이라는 정의이다.

당장의 소득 활동을 하기 보다 소득을 커녕 등록금이라는 비용이 들더라도 장기적으로 소득의 확보를 높이기 위해 대학에 진학하는 것이 바로 지능의 활동이라는 것.

지능의 결과는 –예측이므로– 항상 확률적이기 때문에, 우리는 성공 확률이 높은 경우에 대해 더 높은 지능이라는 평가를 내릴 수 있다. 또한 지능은 그 물리적인 하드웨어인 뇌의 가소성(plasticity) 덕분에 학습에 의한 더 발달이 가능하다 –물리적 하드웨어인 뇌의 한계 내에서– 는 특징도 있다.


[1]: 전역 최적점(global optimal)이라는 개념은 다소 직관적인 표현인데, 엄밀히 말해 현재의 지역 최적점(local optimal) 보다 더 최적화된 지역 최적점이 있을 뿐 전역 최적점은 없다고 보는게 맞다. 마치 집합론에서 항상 더 큰 집합이 존재할 수 있기 때문에 엄밀한 의미에서 전체 집합(universal set)이라는 것은 없다고 –제한된 범위 내에서만 가능– 하는 것과 마찬가지.

김영길/ 프리드버그 선형대수학/ field, vector space

1.1 개론

Vector

  • 물리에서의 Vector – 크기와 방향이 있는 것
  • 수학에서의 Vector – [ 1 \, 2 \, 3 \, 4 ]

Field (체)

  • 아래의 조건을 만족하는 집합을 Field(체)라고 한다.
    • 2개의 이항 연산을 갖고 있음 (+, \cdot)
      • 예시는 덧셈과 곱셈이지만 항상 덧셈과 곱셈일 필요는 없다. 여하튼 2개의 연산을 갖고 있고, 두 연산이 이하의 조건을 만족하기만 하면 된다.
    • 닫혀 있음
    • 2개의 이항 연산이 모두 교환법칙(commutative)이 성립해야 함
      • a + b = b + a
      • a \cdot b = b \cdot a
    • 2개의 이항 연산이 모두 결합법칙(associative)이 성립해야 함
      • (a + b) + c = a + (b + c)
      • (a \cdot b) \cdot c = a \cdot (b \cdot c) 
    • 2개의 이항 연산에 모두 항등원이 존재해야 함
      • 0 + a = a  (additive identity)
      • 1 \cdot a = a  (multiplicative identity)
      • (연산에 항등원이 존재한다는 것은 해당 연산에 기준점이 존재한다는 의미)
    • 2개의 이항 연산에 모두 역원이 존재해야 함
      • a + (-a) = 0 (additive inverse)
      • b \cdot b^{-1} = 1 (multiplicative inverse)
    • 2개의 연산에 대해 분배법칙(distributive)이 성립해야 함
      • a \cdot (b + c) = a \cdot b + a \cdot c

Examples of Field

  • Z_{n} 을 정수를 n 으로 나눈 나머지의 집합이라고 가정할 때,
    • Z_{2} 는 체를 만족한다.
    • 마찬가지로 Z_{3}, Z_{5}, Z_{7} 는 체를 만족한다.
    • 일반적으로 n 이 소수인 경우에는 체가 만족된다.
  • 정수 집합, 자연수 집합은 Field가 아니다.

1.2 Vector Space

  • 벡터 공간은 벡터들의 집합이고 다음 조건을 만족한다.
    • (+, \cdot) 연산이 정의되어 있음.
      • + 는 벡터간의 더하기인데 반해
      • \cdot 는 벡터와 스칼라의 곱이기 때문에, \cdot 은 이항연산이라는 표현을 하지 않음
    • x, y \in V, a, b \in F 에 대하여 (x, y 는 벡터의 원소, a, b 는 체의 원소)
      • 닫혀 있음
      • 벡터간 + 연산이 교환법칙이 성립해야 함
        • x + y = y + x
      • 벡터간 + 연산이 결합법칙이 성립해야 함
        • (x + y) + z = x + (y + z)
      • 벡터간 + 연산과 벡터-스칼라의 \cdot 연산이 항등원을 갖고 있어야 함.
        • \exists 0 \in V : x + 0 = x
        • \forall x \in V : 1 \cdot x = x
      • 벡터와 스칼라의 \cdot 연산에 교환법칙이 성립해야 함
        • x \in V, a, b \in F : (a \cdot b) \cdot x = a \cdot (b \cdot x)
        • 스칼라간 \cdot 과 벡터-스칼라간 \cdot 는 서로 다른 연산임에 주의
      • 벡터와 스칼라 연산에 분배법칙이 성립해야 함
        • a(x + y) = ax + ay
        • (a + b) x = ax + bx
  • (일반적으로 벡터와 벡터 공간에 대해 설명할 때, 벡터 공간을 정의하는데 벡터가 필요하고 –벡터와 연산에 대한 집합–, 벡터를 정의하는데 벡터 공간이 필요한데 –벡터는 벡터공간의 원소– 정의가 순환적이라고 느껴진다. 아마도 벡터 공간을 정의할 때 필요한 집합을 임의의 것으로 하고, 그렇게 정의된 벡터 공간에 포함된 원소를 벡터로 정의하는게 맞는 것 같다.)
  • 참고) n-tuple 은 체(F)의 원소가 n개 나열된 것을 의미한다. 
    • (a_{1}, a_{2}, ... , a_{n})
    • (생긴게 비슷하지만 다르니 주의)
  • 행렬도 벡터 공간의 정의를 만족하기 때문에 벡터 공간의 원소라 할 수 있다.
    • M_{m \times n} (F) = \{ [a_{i, j}]_{m \times n} | a_{i, j} \in F \}
    • \left( \begin{array}{rrr} 2 & 3 & 4 \\ 5 & 6 & 7 \end{array} \right) \in M_{2 \times 3}(F)

 


(강의는 4판이고, 내가 가진 책은 5판이라 다른 부분이 있어서 책에만 있는 내용 추가)

개론

  • 물리적 개념으로 벡터는 크기와 방향을 가진 물리량을 의미.
    • 벡터의 크기는 화살표의 길이로, 벡터가 작용하는 방향은 화살표의 방향으로 나타낸다.
  • 두 물리량이 함께 작용할 때, 물리량의 크기 뿐만 아니라 방향을 함께 고려해야 함을 알 수 있는데, 두 물리량이 결합될 때 나타나는 효과는 두 벡터를 결합시켜 얻은 합성벡터로 설명할 수 있다. 
    • 이 합성벡터를 두 벡터의 합(sum)이라 하며, 두 벡터를 결합시키는 규칙을 벡터 합의 평행사변형 법칙(parallelogram law)라고 한다.
    • 시점이 P 로 일치하는 두 벡터 x, y 의 합은 점 P 에서 시작하는 벡터이고, 이는 x y 를 이웃한 변으로 하는 평행사변형의 대각선으로 나타난다.

  • 평행사변형의 대변은 평행하고 길이가 같으므로 벡터 x + y 의 종점 Q 는 점 P 에서 시작하는 벡터 x 의 종점에 벡터 y 의 시점을 이여붙여 도달한 것으로 이해할 수 있다.
  • 벡터의 합은 해석기하학의 도움을 받아 대수적으로 이해할 수 있다. 두 벡터 x y 를 포함하는 평면에 P 를 원점으로 하는 직교좌표를 부여하자.
    • 아래 그림 (a)와 같이 벡터 x 의 종점을 (a_{1}, a_{2}) , 벡터 y 의 종점을 (b_{1}, b_{2}) 라 하면, 벡터 a + b 의 종점은 (a_{1} + b_{1}, a_{2} + b_{2}) 이다.
  • 이제부터 좌표를 사용하여 벡터를 해석할 때 모든 벡터의 시점은 원점이라 가정한다. 시점이 원점이면 종점이 벡터를 결정하므로, 시점을 원점으로 하는 벡터 x 의 종점을 간단히 점 x 라 쓰기도 할 것이다.
  • 벡터의 합 이외에도 자연스러운 연산이 하나 더 있는데, 벡터의 크기를 확대하거나 축소할 수 있는 스칼라 곱(scalar multiplication)이다. 
    • 벡터 x 를 유향선분으로 이해하자. 0이 아닌 실수 t 에 대하여 벡터 tx 의 방향은 t > 0 일 때 x 의 방향과 같고, t < 0 일 때 x 의 방향과 180도 반대이다.
    • 벡터 tx 의 크기는 유향선분 x 의 크기에 |t|를 곱한 것이다.
    • 영이 아닌 두 벡터 x, y 에 대하여 y = tx 0 이 아닌 실수 t 가 존재할 때, 두 벡터는 평행(parallel)하다. 다시 말해 방향이 같거나 180도 반대인 벡터들은 평행하다.
  • 벡터 x 의 시점이 원점이 되도록 하는 좌표평면을 사용하면 스칼라 곱을 대수적으로 설명할 수 있다. 원점을 시점으로 하는 벡터 x 의 종점이 (a_{1}, a_{2}) 일 때, tx 의 종점은 (ta_{1}, ta_{2}) 이다.

  • 공간에서 서로 다른 두 점 A, B 를 지나는 직선을 생각하자. 이 공간에 공간좌표를 부여하고 원점을 O 라 표기하자.
    • 시점이 O 이고 종점이 A, B 인 두 벡터를 각각 u, v 라 하자.
    • 시점이 A 이고 종점이 B 인 벡터를 w 라 할 때, 시점과 종점을 이어붙이는 방식에 의하면 u + w = v, w = v - u 이다.
    • 이때 -u (-1)u 를 의미한다. w 의 스칼라 곱은 w 에 평행하지만 크기는 w 와 다를 수 있다.
  • 두 점 A, B 를 이은 직선 위 임의의 점은 A 를 시점으로 하는 벡터의 종점이고, 적절한 실수 t 에 대하여 tw 의 형태로 표현할 수 있다.
    • 반대로 A 를 시점으로 하는 벡터 tw 의 종점은 두 점 A, B 를 지나는 직선 위의 점이다. 따라서 두 점 A, B 를 지나는 직선의 방정식은 다음과 같다.

x = u + tw = u + t(v-u)  

  • 단, t 는 임의의 실수이고 x 는 직선 위 임의의 점
  • 한 아래 그림에서 벡터 v - u 의 종점 C 의 좌표는 B 의 좌표에서 A 의 좌표를 뺀 것과 같음을 유념하자.
  • (벡터로 표현한 직선의 방정식에서 u 는 시점의 역할을 하고 v -u 는 직선의 방향을 의미한다. t 는 적절한 실수배로서 벡터의 크기를 결정함)

  • 예제 1) 공간좌표 두 점 A(-2, 0, 1) B(4, 5, 3) 에서 A 가 시점이고 B 가 종점인 벡터와 같은 크기와 방향을 가지고 시점이 원점인 벡터 C 의 종점은 (4, 5, 3) - (-2, 0, 1) = (6, 5, 2) 이다. 따라서 두 점 A, B 를 지나는 직선의 방정식은 다음과 같다.
    • x = (-2, 0, 1) + t(6, 5, 2) (단, t 는 임의의 실수)
  • 공간에서 한 직선 위에 있지 않은 세 점 A, B, C 를 생각해 보자. 이 세 점은 하나의 평면을 결정하고, 지금까지 공부한 벡터의 성질을 이용하면 평면의 방정식을 구할 수 있다.
    • 시점이 A 이고 종점이 B, C 인 두 벡터를 각각 u, v 라 하자.
    • 세 점 A, B, C 로 이루어진 평면 위 임의의 점 S A 를 시점으로 하고, su + tv 형태 (이때 s t 는 임의의 실수)인 벡터 x 의 종점이다.
    • 벡터 su 의 종점은 직선 AB 와 점 S 를 지나고 직선 AC 와 평행한 직선의 교점이다. (아래 그림) 같은 방식으로 tv 의 종점도 알 수 있다.
    • 임의의 실수 s, t 에 대하여 벡터 su + tv 는 세 점 A, B, C 를 포함하는 평면에 위치한다. 따라서 세 점 A, B, C 를 포함하는 평면의 방정식은 다음과 같다.

x = A + su + tv  

  • 단, s, t 는 임의의 실수이고 x 는 평면 위 임의의 점
  • (직선의 방정식과 마찬가지로 A 가 시점이 되고 두 벡터가 각각 방향을 의미하게 된다. 실수는 두 벡터의 크기를 의미. 시점을 구할 때와 달리 면이기 때문에 두 벡터를 합한 것이 벡터로 표현한 평면의 방정식이 된다.)

  • 예제 2) 공간에서 세 점 A(1, 0, 2), B(-3, -2, 4), C(1, 8, -5) 를 생각하자.
    • A 가 시점이고 B 가 종점인 벡터와 같은 크기와 방향을 가지고 시점이 원점인 벡터의 종점은 (-3, -2, 4) - (1, 0, 2) = (-4, -2, 2) 이다.
    • A 가 시점이고 C 가 종점인 벡터와 같은 크기와 방향을 가지고 시점이 원점인 벡터의 종점은 (1, 8, 5) - (1, 0, 2) = (0, 8, -7) 이다.
    • 따라서 세 점을 포함하는 평면의 방정식은 다음과 같다.
      • x = (1, 0, 2) + s(-4, -2, 2) + t(0, 8, -7)  (단, s, t 는 임의의 실수)

벡터 공간

(벡터 공간의 정의는 위 강의에도 있으니 생략)

  • a_{1}, a_{2}, ... , a_{n} 이 체 F 의 원소일 때 (a_{1}, a_{2}, ... , a_{n}) 꼴의 수학적 대상을 F 에서 성분을 가져온 n 순서쌍(n -tuple)이라 한다. 
    • F 에서 성분을 가져온 두 n 순서쌍 (a_{1}, a_{2}, ... , a_{n}) (b_{1}, b_{2}, ... , b_{n}) a_{i} = b_{i} (i = 1, 2, ... , n) 일 때, 같다(equal)고 정의한다.
  • 예제 1) 체 F 에서 성분을 가져온 모든 n 순서쌍의 집합을 F^{n} 이라 표기한다. 
    • u = (a_{1}, a_{2}, ... , a_{n}) \in F^{n}, v = (b_{1}, b_{2}, ... , b_{n}) \in F^{n}, c \in F 일 때, 합과 스칼라 곱을 다음과 같이 정의하면 이 집합은 F -벡터 공간이다.
      • u + v = (a_{1} + b_{1}, a_{2} + b_{2}, ... , a_{n} + b_{n})  
      • cu = (ca_{1}, ca_{2}, ... , ca_{n})  
    • 따라서 R_{3} R -벡터 공간이다. 예컨대 R^{3} 에서 합과 스칼라 곱은 다음과 같이 구한다.
      • (3, -2, 0) + (-1, 1, 4) = (2, -1, 4)
      • -5(1, -2, 0) = (-5, 10, 0)
    • 같은 방식으로 C^{2} C -벡터 공간이다. 예컨대 C^{2} 에서 합과 스칼라 곱은 다음과 같이 구한다.
      • (1 + i, 2) + (2 - 3i, 4i) = (3-2i, 2+4i)
      • i(1 + i, 2) = (-1 + i, 2i)
  • F^{n} 의 벡터는 행백터(row vector) (a_{1}, a_{2}, ... , a_{n}) 보다 다음과 같은 열벡터 (column vector)로 표현한다.

\left( \begin{array}{rrrr} a_{1} \\ a_{2} \\ ... \\ a_{n} \end{array} \right)

  • 1 순서쌍은 F 에서 하나의 성분만 가져오므로 체 F 의 원소로 생각할 수 있다. 따라서 F 에서 성분을 가져온 1 순서쌍으로 이루어진 벡터공간은 F^{1} 이라 쓰기보다 편하게 F 라 쓰는 경우가 많다.
  • F 에서 성분을 가져온 m \times n 행렬(matrix)는 다음과 같은 직사각형 모양의 배열이다.

\left( \begin{array}{rrrr} a_{11} & a_{12} & ... & a_{1n} \\ a_{21} & a_{22} & ... & a_{2n} \\ ... & ... & ... & ... \\ a_{m1} & a_{m2} & ... & a_{mn} \end{array} \right)

  • 이때 모든 a_{ij} (1 \leq i \leq m, 1 \leq j \leq n) F 의 원소이다. 
    • i = j 인 성분 a_{ij} 는 이 행렬의 대각성분(diagonal entry)
    • 성분 a_{i1}, a_{i2}, ... , a_{in} 는 이 행렬의 i 번째 행(row)
    • 성분 a_{1j}, a_{2j}, ... , a_{mj} 는 이 행렬의 j 번째 열(column)
    • 행렬의 각 행은 F^{n} 벡터로, 각 열은 F^{m} 의 벡터로 나타낼 수 있다.
    • 더 나아가 F^{n} 의 행벡터를 1 \times n 행렬로, F^{m} 의 열벡터를 m \times 1 행렬로 나타낼 수 있다.
  • 모든 성분이 0 m \times n 행렬을 영행렬(zero matrix)이라 하며 O 로 표기한다.
  • 행렬은 이탤릭 대문자(A, B, C 등)를 사용하여 나타낸다. 
    • A i j 열에 위치한 성분을 A_{ij} 라 표기할 것이다.
    • 행의 개수와 열의 개수가 같은 행렬을 정사각행렬(square matrix)라 한다.
    • m \times n 행렬 A, B 에서 대응하는 성분이 모두 일치할 때, 같다고 정의한다. 모든 1 \leq i \leq m, 1 \leq j \leq n 에 대하여 A_{ij} = B_{ij} 이면 두 행렬은 같다.
  • 예제 2) 성분이 체 F 의 원소인 모든 m \times n 행렬의 집합은 M_{m \times n}(F) 라 표기한다. A, B \in M_{m \times n}(F), c \in F 일 때 합과 스칼라 곱을 다음과 같이 정의하면 M_{m \times n}(F) 는 벡터공간이다.
    • (A + B)_{ij} = A_{ij} + B_{ij}
    • (cA)_{ij} = cA_{ij}
    • (단, 1 \leq i \leq m, 1 \leq j \leq n )
  • m \times n 행렬의 합과 스칼라 곱은 F^{n} F^{m} 에서 정의한 연산이 자연스럽게 확장된 것이다.
    • m \times n 행렬을 더하여 얻은 행렬의 i 행은 처음 두 행렬에서 i 번째 행벡터들의 합이고,
    • 스칼라 c 를 곱하여 얻은 행렬 cA 의 각 행은 처음 행렬의 각 행벡터에 스칼라를 곱한 것과 같다.
    • 같은 방식으로 두 m \times n 행렬을 더하여 얻은 행렬의 j 열은 처음 두 행렬에서 j 번째 열벡터들의 합이고,
    • 스칼라 c 를 곱하여 얻은 행렬 cA 의 각 열은 처음 행렬의 각 열벡터에 스칼라를 곱한 것과 같다.
  • 예제 3) 체 F 의 공집합이 아닌 집합 S 를 생각하자. \mathcal{F}(S, F) S 에서 F 로 가는 모든 함수의 집합이다.
    • \mathcal{F}(S, F) 에서 모든 s \in S 에 대하여 f(s) = g(s) 일 때, 두 함수 f, g 는 같다고 한다.
    • f, g \in \mathcal{F}(S, F), c \in F, s \in S 일 때, 합과 스칼라 곱을 다음과 같이 정의하면 \mathcal{F} 는 벡터공간이다.
      • (f + g)(s) = f(s) + g(s)
      • (cf)(s) = c[f(s)]
  • 계수가 체 F 의 원소인 다항식(polynomial)은 다음과 같이 정의한다.

f(x) = a_{n}x^{n} + a_{n-1}x^{n-1} + ... + a_{1}x + a_{0}

  • 이때 n 은 음이 아닌 정수이고, 각 a_{k} (x^{k} 의 계수(coefficient))는 F 의 원소이다.
    • f(x) = 0 이면 다시 말해 a_{n} = a_{n-1} = ... = a_{0} = 0 이면 F 는 영 다항식(zero polynomial)이라 한다. 편의를 위해 영 다항식의 차수는 -1 로 정의한다.
  • 영 다항식이 아닌 다항식을 살펴보자.

f(x) = a_{n}x^{n} + a_{n-1}x^{n-1} + ... + a_{1}x + a_{0}

  • 이때 다항식의 차수(degree)는 계수가 0 이 아닌 항의 x 의 지수 중 가장 큰 값으로 정의한다. 차수가 0 인 다항식은 f(x) = c 꼴이다. (단 c 0 이 아닌 스칼라)
  • 두 다항식 F 를 살펴보자.

f(x) = a_{n}x^{n} + a_{n-1}x^{n-1} + ... + a_{1}x + a_{0}

g(x) = b_{m}x^{m} + b_{m-1}x^{m-1} + ... + b_{1}x + b_{0}

  • m = n 이고 모든 i = 0, 1, ... , n 에 대하여 a_{i} = b_{i} 일 때 f, g 는 같다고 한다.
  • F 가 무한집합일 때, F 에서 계수를 가져온 다항식을 F 에서 F 로 가는 함수로 볼 수 있다. 이때 c \in F 에서 f(x) = a_{n}x^{n} + a_{n-1}x^{n-1} + ... + a_{1}x + a_{0} 의 함수값은 다음 스칼라를 가리킨다.

f(c) = a_{n}c^{n} + a_{n-1}c^{n-1} + ... + a_{1}c + a_{0}

  • 다항함수 f(x) = a_{n}x^{n} + a_{n-1}x^{n-1} + ... + a_{1}x + a_{0} 은 간단히 f 또는 f(x) 라 쓴다.
  • 예제 4) F 에서 계수를 가져온 두 다항식 f, g 를 생각하자.
    • f(x) = a_{n}x^{n} + a_{n-1}x^{n-1} + ... + a_{1}x + a_{0}
    • g(x) = b_{m}x^{m} + b_{m-1}x^{m-1} + ... + b_{1}x + b_{0}
    • m \leq n 일 때, b_{m+1} = b_{m+2} = ... = b_{n} = 0 이라 정의하면 g(x) 를 다음과 같이 쓸 수 있다.
      • g(x) = b_{n}x^{n} + b_{n-1}x^{n-1} + ... + b_{1}x + b_{0}
    • 두 다항식의 합과 스칼라 곱을 다음과 같이 정의하면, F 에서 계수를 가져온 모든 다항식의 집합은 벡터 공간이다.
      • f(x) + g(x) = (a_{n} + b_{n})x^{n} + (a_{n-1} + b_{n-1})x^{n-1} + ... + (a_{1} + b_{1})x + (a_{0} + b_{0})
      • cf(x) = ca_{n}x^{n} + ca_{n-1}x^{n-1} + ... + ca_{1}x + ca_{0} (이때 c 는 임의의 스칼라)
    • 이 벡터공간을 P(F) 라 쓴다.
  • 다음 예제에서 소개하는 벡터공간과 P(F) 는 본질적으로 같다.
  • 예제 5) (임의의 체) F 위에서 정의된 수열(sequence)은 자연수 집합을 정의역, F 를 공역으로 하는 함수이다. 이 책에서는 \sigma(n) = a_{n} (n = 1, 2, 3, ...) 인 수열 \sigma (a_{n}) 이라 표기할 것이다.
    • F 에서 정의된 모든 수열의 집합을 V 라 하자. 두 수열 (a_{n}), (b_{n}) 과 스칼라 t 에 대하여 다음과 같이 합과 스칼라 곱을 정의하면 V 는 벡터 공간이다.
      • (a_{n}) + (b_{n}) = (a_{n} + b_{n})
      • t(a_{n}) = (ta_{n})
  • 예제 6) S = \{ (a_{1}, a_{2} : a_{1}, a_{2} \in R \} 일 때, (a_{1}, a_{2}), (b_{1}, b_{2}) \in S c \in R 에 대하여 합과 스칼라 곱을 다음과 같이 정의하자.
    • (a_{1}, a_{2}) + (b_{1}, b_{2}) = (a_{1} + b_{1}, a_{2} - b_{2})
    • c(a_{1}, a_{2}) = (ca_{1}, ca_{2})
    • S 는 덧셈의 교환법칙, 결합법칙과 아래 조건을 만족하지 않으므로 이 연산에 대하여 벡터공간이 아니다.
      • VS8) 모든 a, b \in F 와 모든 x \in V 에 대하여 (a + b) x = ax + bx 이다.
      • (교재에 벡터 공간의 조건으로 정의되는 조건. 강의에 나오기 때문에 생략)
  • 예제 7) 집합 S 는 예제 6과 같고 (a_{1}, a_{2}), (b_{1}, b_{2}) \in S c \in R 에 대하여 합과 스칼라 곱을 다음과 같이 정의하자.
    • (a_{1}, a_{2}) + (b_{1}, b_{2}) = (a_{1} + b_{1}, 0)
    • c(a_{1}, a_{2}) = (ca_{1}, 0)
    • 아래 조건이 성립하지 않으므로 S 는 이 연산에 대하여 벡터공간이 아니다.
      • VS3) 모든 x \in V 에 대하여 x + 0 = x 0 \in V 이 존재한다.
      • VS4) 각 x \in V 마다 x + y = 0 y \in V 가 존재한다.
      • VS5) 각 x \in V 에 대하여 1x = x 이다.
  • 정리 1.1) 벡터 합의 소거 법칙
    • x, y, z \in V 이고 x + z = y + z 일 때 x = y 이다.
  • (VS3)을 만족하는 벡터 0 V 의 영벡터(zero vector)라 한다. 
  • (VS4)를 만족하는 벡터 y , 다시 말해 x + y = 0 를 만족하는 유일한 벡터 y 는 덧셈에 의한 x 의 역벡터(additive inverse)라 하며 -x 로 표기한다.
  • 정리 1.2) 모든 벡터공간 V 에 대하여 다음이 성립한다.
    • 모든 벡터 x 에 대하여 0x = 0 이다.
    • 모든 스칼라 a 와 모든 벡터 x 에 대하여 (-a)x = -(ax) = a(-x) 이다.
    • 모든 스칼라 a 에 대하여 a0 = 0 이다.

다시, 수학이 필요한 순간

다시, 수학이 필요한 순간

전작 <수학이 필요한 순간>의 성공에 힘입어 나온 후속작. 전체적인 구성은 전작과 비슷하지만, 전작보다 깊이 있는 주제들에 대해 다루고 있다. 가볍게 읽을 수 있었던 전작에 비해 깊이 있는 주제가 다뤄지고, 여러 물리학 지식도 다뤄지기 때문에 전작만큼 가볍게 읽기는 쉽지 않음.

전작을 재미있게 본 사람이라거나 수학에 대해 지식이 있는 사람이라면 읽어볼 수 있겠지만, 수학과는 거리가 있는 사람이 접하기는 좀 어려울 것 같다.

선형대수와 군/ 행렬과 Gauss 소거법/ Matrix

집합 F 가 실수 전체의 집합 \mathbb{R} 혹은 복소수 전체의 집합 \mathbb{C} 이고 모든 i = 1, 2, ... , m j = 1, 2, ... , n 에 대하여 a_{ij} \in F 일 때

A = \left( \begin{array}{rrrr} a_{11} & a_{12} & ... & a_{1n} \\ a_{21} & a_{22} & ... & a_{2n} \\ ... & ... & ... & ... \\ a_{m1} & a_{m2} & ... & a_{mn} \end{array} \right)

F 위의 (m \times n) 행렬이라고 부른다.

그리고 앞 (m \times n) 행렬 A 를 간단히는

A = (a_{ij})_{m \times n} = (a_{ij})

로 표기하기로 한다.

이때 a_{ij} 를 행렬 A (i, j) 좌표(coordinate) 혹은 (i, j) 성분(component)이라고 부르고

A i 번째 행(가로줄, row)을 [A]_{i}

A j 번째 열(세로 줄, column)은 [A]^{j}

로 표기한다.

물론 (m \times n) 행렬 A = (a_{ij}) B = (b_{ij}) 가 같다(즉, A = B )는 말은 모든 i, j 에 대하여 a_{ij} = b_{ij} 라는 뜻이다.

F 위의 (m \times n) 행렬 전체의 집합은 \mathfrak{M}_{m, n}(F) 로 표기하기로 한다.

우리는 (m \times n) 행렬 A = (a_{ij}) B = (b_{ij}) 의 덧셈(addition)을

A + B = (a_{ij} + b_{ij})

로 정의한다 (즉, A + B (i , j) 좌표가 a_{ij} + b_{ij} 라는 뜻)

행렬 A = (a_{ij}) 와 scalar c \in F 의 상수곱 (scalar multiplication)은

c A = (ca_{ij})

로 정의한다.

즉, 행렬의 덧셈과 상수곱은 자연스럽게 componentwise 정의 (성분별로 정의) 된다.

그러나 행렬의 곱셉(multiplication)은 지금은 그렇게 자연스러워 보이지 않는다. 행렬 A = (a_{ij}) 의 size가 (m \times n) 이고 행렬 B = (b_{jk}) 의 size가 (n \times r) 일 때, 우리는 (m \times r) 행렬 AB

AB = (c_{ik}), c_{ik} = \sum_{j = 1}^{n} a_{ij} b_{jk}

로 정의한다.

따라서 c_{ik} A 의 i-th row [A]_{i} B 의 k-th column [B]^{k} 의 ‘내적’이라고 생각할 수 있다.

행렬의 곱셉을 왜 이렇게 부자연스럽게 정의하는지를 아는 것이 이 강의 첫 목적인데, 그 본질적인 이유는 5장에서 ‘행렬과 선형사상은 같은 것’이라는 명제를 이해하고 나면 저절로 알게 될 것이다.

영행렬(zero matrix) 0은 모든 좌표가 0인 행렬을 뜻한다. 그리고 n-차 항등행렬(identity matrix) I_{n} = I (i, j) \delta_{ij} (n \times n) 정사각행렬(square matrix)을 나타내기로 한다.

(m \times n) 행렬 A, B 에 대하여

-A = (-1) A

A - B = A + (-B)

로 표기하기로 한다.

다음 관찰은 행렬 연산의 기본적인 규칙들이다. (우리는 이미 (n \times n) 정사각 행렬 A, B 에 대하여 AB = BA (곱셈의 교환법칙)가 언제나 성립하지는 않는다는 사실을 잘 알고 있다)

관찰 1.1.1

행렬 A, B, C 와 scalar r, s \in F 에 대하여, 연산들이 잘 정의되어 있으면 –즉, 행렬들의 size가 연산이 가능하도록 주어져 있으면– 다음 규칙들이 성립한다.

  1. (A + B) + C = A + (B + C) (덧셈의 결합법칙)
  2. A + B = B + A (덧셈의 교환법칙)
  3. A + 0 = A (뎃셈의 항등원)
  4. A - A = 0 (덧셈의 역원)
  5. (r + s)A = rA + sA (분배법칙)
  6. r(A + B) = rA + rB (분배법칙)
  7. r(sA) = (rs)A
  8. 1A = A
  9. (AB)C = A(BC) (곱셈의 결합법칙)
  10. AI = A = IA (곱셈의 항등원)
  11. (A+B)C = AC + BC, A(B+C) = AB + AC (분배법칙)
  12. (rA)B = r(AB) = A(rB)

1-8항은 거의 자명하다. 예컨대 1항을 달리 표현하면 행렬의 덧셈은 componentwise 정의되었고, 각각의 component가 –즉 F 의 원소들이– 덧셈의 결합법칙을 만족하므로, 행렬의 덧셈도 결합법칙을 만족한다고 할 수 있다.

9항의 증명도 어렵지는 않지만, 아래의 세련된 notation을 감상하기 바란다. (AB)C = A(BC) 를 보이는 유일한 방법은 양변의 좌표들이 모두 같음을 보이는 방법 뿐이다. 이제 행렬 A (i, j) 좌표를 [A]_{ij} 로 표기하기로 하고 A = (a_{ij}), B = (b_{jk}), C = (c_{kl}) 이라 놓으면

[(AB)C]_{il} = \sum_{k}[AB]_{ik}c_{kl} = \sum_{k}(\sum_{j} a_{ij} b_{jk})c_{kl} = \sum_{k, j} (a_{ij} b_{jk}) c_{kl}

이고 같은 방법으로

[A(BC)]_{il} = \sum_{j,k} a_{ij}(b_{jk} c_{kl})

임을 보일 수 있다.

나머지는 연습문제로 남긴다.

(생략)

보기 1.1.3

c \in F, A \in \mathfrak{M}_{m,n} 이면 당연히

(c I_{m}) A = c (I_{m} A) = cA

가 된다. 즉, 행렬 cI 는 마치 scalar와 같은 구실을 한다. 그런 의미에서 우리는 cI 꼴의 행렬을 scalar matrix라고 한다.

또한 square matrix A 에 대하여

A^{2} = AA, A^{3} = AAA, A^{4} = AAAA, ...

의 표기법을 자연스럽게 해 준다.

물론 

A^{0} = I, A^{1} = A

로 정의하는 것이 우리의 관습이다.

연습문제 1.1.6

[A^{r} = 0, (for some) r \leq 1] 인 square matrix A를 nilpotent matrix라고 부른다.

만약 A, B \in \mathfrak{M}_{m,n}(F) 가 nilpotent이고 AB = BA 이면 (A+B) 도 nilpotent임을 보여라

연습문제 1.1.7

A = (a_{ij}) 가 square matrix일 때, 만약 [a_{ij} = 0, (if) i > j] 이면 A를 upper-triangular matrix라고 부른다.

또 이때 [a_{ii} = 0, \forall i] 이면 A를 strictly upper-triangular matrix라고 부르고, [a_{ii} = 1, \forall i] 이면 A를 unipotent upper-triangular matrix라고 부른다.

(가) A, B \in \mathfrak{M}_{n,n}(F) 가 upper-triangular이면 AB도 upper-triangular임을 보여라. 이때 AB의 대각성분을 묘사하라

(나) A, B \in \mathfrak{M}_{n,n}(F) 가 strictly upper-triangular 이면 AB도 strictly upper-triangular임을 보여라. 또 A, B \in \mathfrak{M}_{m,n}(F) 가 unipotent upper-triangular이면 AB도 unipotent upper-triangular임을 보여라

(다) A \in \mathfrak{M}_{n,n}(F) 가 strictly upper-triangular이면 A^{n} = 0 임을 보여라

A = (a_{ij}) (m \times n) – matrix라고 할 때, (n \times m) -matrix A^{t} = (a_{ji}) 를 A의 전치행렬 (transpose matrix)라고 부른다. 즉 A^{t} (i, j) -좌표가 a_{ji} 라는 뜻이다. 따라서 A^{t} A 의 행은 열로, 열은 행으로 바꾼 행렬이다.

예컨대

\left( \begin{array}{rrr} 1 & 2 & 3 \\ 4 & 5 & 6 \end{array} \right)^{t} = \left( \begin{array}{rrr} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{array} \right)

이 된다.

이제 A = A^{t} 인 matrix A 를 대칭행렬(symmetric matrix)라고 부르는 것 또한 매우 자연스럽다. 또 X, Y (n \times 1) -행렬일 때, X^{t} \cdot Y 는 vector의 ‘내적’이고, X \cdot Y^{t} (n \times n) -행렬임을 확인할 수 있다.

A, B \in \mathfrak{M}_{m,n}(F), C \in \mathfrak{M}_{n, r}(F), c \in F 일 때 다음을 보여라

  • (A+B)^{t} = A^{t} + B^{t}
  • (cA)^{t} = cA^{t}
  • (A^{t})^{t} = A
  • (AC)^{t} = C^{t} A^{t}

정의 1.1.9

(n \times n) -square matrix A = (a_{ij}) 에 대하여

tr(A) = \sum_{i=1}^{n} a_{ii}

를 표기하고 tr(A) 의 행렬을 행렬 A 의 trace라고 부른다. 즉 A 의 trace는 A 의 대각성분(diagonal component)들의 합이다.

tr \left( \begin{array}{rrr} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{array} \right) = 1 + 5 + 9 = 15

연습문제 1.1.11

(n \times n) 행렬 A, B 와 scalar c \in F 에 대하여 다음이 성립하는 것을 보여라

  • tr(A + B) = tr(A) + tr(B)
  • tr(cA) = c \cdot tr(A)
  • tr(A^{t}) = tr(A)
  • tr(AB) = tr(BA)

Square matrix가 아니면 diagonal component라는 말이 의미가 없으므로, trace는 square matrix의 경우에만 의미를 갖는다. 독자들은 trace라는 단어의 뜻에 유의하기 바란다. n^{2} 개의 component를 데리고 지나간 발자국(흔적)이 고작 n 개 diagonal component의 합이라니!

우리는 뒤에서 trace의 중요성을 배우기 시작할 것이다. 사실 독자들은 이미 행렬 A = \left( \begin{array}{rr} a & b \\ c & d \end{array} \right) 는 항상

A^{2} - (a + d) A + (ad - bc) I = 0

을 만족시킨다는 것을 배운적이 있을 것이다. (2 \times 2 ) 행렬의 Cayley-Hamilton Theorem)

위 항등식의 1-차항의 계수 (a + d) 가 바로 tr(A) 이다.

그렇다면 상수항의 계수 (ad - bc) 는? 우리는 뒤에 6장에서 (ad - bc) A 의 determinant라고 부르게 된다. 무엇을 결정해 준다는 뜻일까? 독자들은 이미 (ad - bc) 가 역행렬과 관련이 있다는 것을 알고 있을 것이다.

그리고 독자들은 이미 앞의 관찰 1.1.1에서 곱셈의 역원이 항상 존재하지는 않는다는 것을 눈치챘을 것이다. 다음 정의는 고등학교에서 배운 익숙한 것이다.

정의 1.1.14

Square matrix A \in \mathfrak{M}_{n, n}(F) 에 대하여

AB = I_{n} = BA

B \in \mathfrak{M}_{n, n}(F) 가 존재하면, 우리는 A 를 가역행렬(invertible matrix)라고 부른다. 이때 B A 의 역행렬(inverse matrix)라고 부르고 B = A^{-1} 로 표기한다.

위에서 A^{-1} 의 표기법을 사용하고 ‘the inverse of A’라고 부르려면 A 의 역행렬은 (존재한다면) 하나 뿐임을 보여야하는 것은 당연하다. (독자들은 역행렬을 정의하자마자 이렇게 생각하도록 훈련하여야 한다)

관찰 1.1.15

Invertible matrix A \in \mathfrak{M}_{n, n}(F) 의 inverse는 유일하다.

증명

B \in \mathfrak{M}_{n, n}(F) 를 위 정의에서와 같다고 하자. 우리는

AC = I = CA

C \in \mathfrak{M}_{n, n}(F) 가 또 있다고 가정하고, B = C 인 것을 보이면 된다. 이제 BAC 를 생각하면

B = BI = B(AC) = (BA)C = IC = C

이므로 증명이 끝난다. 

우리는 고교때 2 \times 2 – 행렬 A = \left( \begin{array}{rr} a & b \\ c & d \end{array} \right) 가 가역일 필요충분조건이

ad - bc \neq 0

이고 이때 A 의 역행렬은

A^{-1} = {1 \over ad - bc} \left( \begin{array}{rr} d & -c \\ -b & a \end{array} \right)

인 것을 알고 있다. 이를 모든 n \times n – 행렬의 경우로 확장하는 것도 이 책 전반부의 목표 가운데 하나이다.

다음은 가역행렬의 (초보적인) 성질들이다.

가역행렬 A, B \in \mathfrak{M}_{n, n}(F) scalar 0 \neq c \in F 에 대하여 다음이 성립하는 것을 보여라

  1. I 는 가역이고 I^{-1} = I
  2. cA 는 가역이고 (cA)^{-1} = {1 \over c} A^{-1}
  3. AB 도 가역이고 (AB)^{-1} = B^{-1}A^{-1}
  4. A^{-1} 도 가역이고 (A^{-1})^{-1}) = A
  5. A^{t} 도 가역이고 (A^{t})^{-1} = (A^{-1})^{t}

연습문제 1.1.18

O(n) = \{ A \in \mathfrak{M}_{n, n}(\mathbb{R} | A \textrm{ is invertible and} A^{-1} = A^{t} \} 로 정의할 때 다음을 보여라.

  1. I_{n} \in O(n)
  2. A, B \in O(n) 이면 AB \in O(n)
  3. A \in O(n) 이면 A^{-1} \in O(n)
  4. A \in O(n) 이면 A^{t} \in O(n)

연습문제 1.1.19 

A, U \in \mathfrak{M}_{n, n}(F) 이고 U 가 가역이면

tr(U^{-1}AU) = tr(A)

임을 보여라

연습문제 1.1.20

(가) A, U \in \mathfrak{M}_{n, n}(F) 이고 U 가 가역일 때, m \geq 0 이면

(U^{-1}AU)^{m} = U^{-1}A^{m}U

임을 보여라

(나) A, U \in \mathfrak{M}_{n, n}(F) 이고 U 가 가역일 때, 만약 A 가 nilpotent이면 UT{-1}AU 도 nilpotent 임을 보여라

위 연습문젠느 가장 ‘예쁜’ 행렬이 –즉, 가장 다루기 쉬운 행렬이– 대각 행렬(diagonal matrix) 임을 보여주고 있다. 

연습문제 1.1.21

A \in \mathfrak{M}_{n, n}(F) 일 때 (단, i = 1, ... , k ), n_{1} + ... + n_{k} = n 이라고 놓자. 우리는 다음

A = diag(A_{1}, ... A_{k}) = \left( \begin{array}{rrrrrr} A_{1} & & & & & \\ & A_{2} & & & 0 & \\ & & . & & & \\ & & & . & & \\ & 0 & & & . & \\ & & & & & A_{k} \end{array} \right) \in \mathfrak{M}_{n, n}(F)

형태의 행렬을 (A_{i} 를 i-th diagonal block으로 갖는) block diagonal matrix라고 부른다. A_{i}, B_{i} \in \mathfrak{M}_{n_{i}, n_{i}}(F) 일 때 다음을 보여라.

  1. diag(A_{1}, ... , A_{k}) \cdot diag(B_{1}, ... , B_{k}) = diag(A_{1}B_{1}, ... , A_{k}B_{k})
  2. A_{i} 가 가역이면, (diag(A_{1}, ... , A_{k}))^{-1} = diag(A_{1}^{-1}, ... , A_{k}^{-1})

우리는 고교시절 3 \times 3 – 행렬 A 의 역행렬을 구하는 연습문제를 풀어 본 경험이 있다. 그때 미지수가 3개인 1차 연립방정식을 세 개 풀어서 AB = I 3 \times 3 -행렬 B 를 구하면 어쩐 일인지 항상 BA = I 가 저절로 성립했던 경험이 있을 것이다.

질문 1.1.22

A, B \in \mathfrak{M}_{n, n}(F) 일 때 AB = I 이면 항상 BA = I 인가?

고등학교 수학 책과 대부분의 미적분학 책에서는 이 질문을 고의적으로 숨기고 있다. 따라서 우리의 질문 1.1.22가 ‘대학교 선형대수학’의 출발점이 된다.

우리는 뒤에서 이 답이 ‘예’ 임을 배우가 되는데, 지금 단계에서는 이 질문에 답하는 것의 불가능하기 때문에 10분 이상 투자하지 않기 바란다.

연습문제 1.1.23 

A, B \in \mathfrak{M}_{n, n}(F) 일 때 AB = 0 이면 항상 BA = 0 인가?

수학이 필요한 순간

수학이 필요한 순간

수학자인 저자가 대중을 위해 쓴 수학 대중 교양서. 대중 교양서임에도 다소 딱딱하고 계산적인 내용이 많았던 기존의 수학 교양서와 달리 개념적인 내용을 친절한 문체로 다루기 때문에, 어렵지 않게 읽을 수 있음.

개인적인 느낌으로는 이전에 시간에 대한 물리학을 다뤘던 <시간은 흐르지 않는다>와 비슷하다는 느낌을 많이 받았다. 핵심적인 내용을 잘 짚으면서 전반적으로 대중이 이해하기 쉽고 다소 인문학적인 느낌도 드는 책.

듣기로 외국어를 배우거나 악기를 연주할 때 우리 뇌에서는 오케스트라가 펼쳐진다고 하던데, 이 책을 읽으면서 머리 속에 오케스트라가 펼쳐지는 느낌이 많이 들었다. 기존에 가지고 있던 수학에 대한 생각 –공리로부터 시작해서 연역적으로, 엄밀하게, 일반화된 체계를 구축하는 것이 수학이라는– 이 다시금 도약된 느낌. 그런 의미로만 한정하기에 수학의 범위는 넓다.

수학에 대해 관심 있다면 한 번쯤 읽어볼 만한 책. 

매스매틱스 1

매스매틱스 1

제목이 드러내듯이 수학을 주제로 한 수학 소설. 현대의 고등학생이 과거 수학자들이 살던 시대를 여행하면서 그 시대 수학자들이 다룬 주요한 수학 개념을 다루고 있다.

저자가 수학 강사인 덕에 다뤄지는 수학 개념들이 겉핥기 식이라기보다 좀 더 구체적으로 다뤄지는데, 때문에 해당 수학 개념들에 대한 지식이 전혀 없다면 아주 쉽게 읽기는 어려워 보인다. 그래도 소재가 흥미롭고 –두 인물이 교차하면서 과거를 여행하는 것– 이야기의 흐름이 재미있기 때문에 관심 있는 사람이라면 재미있게 읽을 수 있을 듯. 

1이라는 제목이 암시하듯이 현재 다뤄진 고대 수학자들 이후 계속 이야기가 이어질 것으로 예고 되는데, 이후의 이야기도 기대가 된다.

여담이지만 수학도 예전에 물리학에 대해 그랬던 것처럼 나이가 들고나서 더 흥미를 깨닫게 되었는데, 아무래도 시험을 치르기 위해 배웠던 방식으로는 그 학문의 본연의 모습을 알기는 어렵다는 생각이 든다. 오히려 대중을 물리학 교양이나 수학 교양을 접하면서 그 학문들의 본연의 모습을 깨닫게 되었고 흥미가 생긴 듯.

저자의 유튜브 채널을 즐겨 보고 덕분에 공부도 좀 했는데, 이 사람은 단순히 수학을 가르치는 것을 너머 진심으로 수학의 본 모습을 사랑하고 그것을 대중에게 전파하고자 노력하는 사람으로 보인다. 수학에 대해 잘 모르지만 관심 있다면 꼭 한 번 둘러보기를 권함. 

이상엽Math – YouTube

 

2021

공부, 운동, 자산 관리는 평생에 걸쳐 하는 것이다.
설령 노인이라 할지라도 앞으로 10년 이상 살 수 있다고 믿는다면, 
지금 시작해도 늦은 것은 아니다.
— 1월 24일

원리를 이해해야 응용이 가능하다.
— 1월 20일

세상이 인정해 줄 때까지 최선을 다해라.
그것이 유일한 방법이다.
— 1월 14일

세상은 스스로를 증명한 사람을 인정한다.
— 1월 10일

내가 하는 일과 나와 함께 하는 사람들이 내 삶의 의미를 결정한다.
의미 있는 삶을 바란다면 자신의 일과 자신과 함께 하는 사람들에게 최선을 다하라.
— 1월 2일

삶은 원래 괴롭고 힘든 것이다. 만일 현재의 삶이 괴롭고 힘들지 않다면 그건 누군가 대신 더 괴롭고 힘든 상태에 있거나, 자신의 미래를 땡겨쓰고 있는 것이다.
— 1월 1일

나보다 앞서 달리는 사람이 스스로 멈추거나 내가 타고난 것이 그 사람보다 월등하지 않은 이상,  나의 앞에 달리는 사람을 따라 잡는 것은 거의 불가능하다.
무조건 일찍 시작해야 한다.
— 1월 1일

‘이 정도면 됐지’ 하는 순간 삶은 뒤로 밀려난다.
‘이 정도로는 안 돼’ 라고 해야 삶은 앞으로 나아갈 수 있다.
— 1월 1일

나만 아는 정모는 쓸모가 없다.
모두가 아는 정보를 남보다 빨리 알았을데 가장 쓸모가 크다.
— 1월 1일

도전하고, 실패하고, 일어서서 다시 도전하고 실패하고 다시 일어서라
그것이 남자의 삶이다.
— 1월 1일

우리의 일상은 행복하지도, 불행하지 않은 것들로 가득차 있다.
행복하거나 불행한 것들이 반복되면 일상이 되기 때문이다.
— 1월 1일

큰 일을 하려면 결국 사람을 모아야 한다.
그러나 사람을 모으려면 그 전에 내가 먼저 실적을 만들어야 한다.
아무런 실적 없는 사람에게 자신의 미래를 거는 사람은 없다.
일단 스스로의 힘으로 실적을 만들고, 그 실적을 바탕으로 좋은 사람들을 모으고, 그 사람들을 바탕으로 더 큰 실적을 만들고, 그 실적으로 더 많은 사람들을 모으고, 그런식으로 실적을 쌓아나가면 큰 업적을 쌓을 수 있다.
— 1월 1일

리스크는 위험이 아니라 변동성이다.
— 1월 1일

혁명가가 혁명에 성공하면 독재자가 된다.
— 1월 1일

나의 고객과 나의 적과 나의 시간은 나를 기다려주지 않는다.
— 1월 1일

감정이 어려워 정리해 보았습니다

감정이 어려워 정리해 보았습니다

개인적으로 먹는거에 대해서는 가장 신뢰하는 최낙언씨가 감정에 대해 정리한 책. 최낙언씨는 본인이 공부한 것들을 엮어서 책으로 내는 것이 특징이라 그간 굉장히 다양한 책들을 많이 냈는데, 이번에는 그중에서 뇌가 감정을 처리하는 것에 대해 다루고 있다.

제목의 늬앙스나 책의 구성을 보면 기존의 책들에 비해 상당히 대중 친화적으로 정리된 것임을 알 수 있는데, 덕분에 막힘 없이 쉽게 읽을 수 있었다.

개인적으로는 최낙언씨의 다른 책에서 언급되었거나 혹은 뇌과학 관련 다른 책에서 접한 내용들이 많았기 때문에 크게 새롭게 느껴진 부분은 많지 않았는데 –뇌과학 전공 서적을 보지 않는 이상 대중 교양 수준에서는 더 새로울게 없을 듯– 뇌에 대한 지식을 접해본 적이 별로 없는 사람들이라면 큰 어려움 없이 여러 내용을 이해할 수 있을 것이기 때문에 추천.

자율 주행 자동차 만들기

자율 주행 자동차 만들기

제목 그대로 자율 주행에 필요로 하는 각종 기술들을 정리한 책. 현세대 자율 주행에 쓰이는 기술들을 개괄적으로 정리하고 있기 때문에, 대충 이런 기술들이 필요하구나 정도로 이해할 수 있다.

다루는 기술들에 대해 깊이 있는 수준으로는 정리가 되어 있지 않은데, 아무래도 아직은 자율 주행의 초기이기 때문에 주도적인 기술이 없기 때문이라 생각. 현재 소개된 기술들이 미래에도 쓰일 수도 있고, 아예 새로운 개념이 등장하면 현재의 방식은 무쓸모해질 수도 있을 것이다. 주도적인 기술이 없는 상태에서 무턱대로 깊이를 팠다가 10년뒤에 안 쓰이는 기술이 되어 버리면 곤란하니까.

자율주행에 관심 있다면 전체적으로 흐름이 어떻게 되는지 이해하는 정도로만 보면 될 듯.