김영길/ 선형대수학/ Directional preference of covariance matrix for random process

Simulation Solutions 는 unitary Simulation Solutions orthogonal matrix 는 항상 diagonal 위에는 모두 이 나오는 를 선택할 수 있다. 는 causal operator가 된다. Example 4.1 Eigenvector들을 이용한 Covariance matrix의  Causal Factorization random vector 에 대하여 Covariance matrix 가 되는 matrix 를 찾으면 는 를 통해 simulate 될 수 있다. 를 구하는 방법 By choosing Brute […]

계속 읽기

김영길/ 선형대수학/ factorization of covariance matrix for random process

Covariance matrix 어떤 랜덤 vector의 covariance matrix 는 다음과 같다. 는 평균벡터 는 conjugate transpose로 켤레전치행렬이 된다. (복소수의 부호를 바꾸고 전치시킨 행렬) Pseudo-correlation, Pseudo-covariance matrix Pseudo-correlation Pseudo-covariance 임의의 벡터 에 대하여 이러한 성질에 때문에 Covariance matrix 는 non-negative definite라고 한다. 이는 correlation matrix 도 마찬가지다. (non-negative definite은 positive semi definite(양의 준정부호)이라고도 한다) Theorem Correlation function은 […]

계속 읽기

김영길/ 선형대수학/ orthogonal complement, LU decomposition, least square, correlation matrix

Def inner product space 의 nonempty subset 에 대하여, 의 orthogonal complement(직교 여공간)는 다음과 같이 정의한다. 란 의 벡터 중에 의 모든 벡터들과 orthogonal한 것을 모아 놓은 집합 Ex 9) 일 때 xy plane  Thm 6.7 일 때 Ex 11) 에서 이면 Ex 12) (Null space of ) = row space of 의 널공간은 의 […]

계속 읽기

김영길/ 선형대수학/ inner product space, Gram Schmidt process

Inner product space (지난 강의 설명 생략) 일 때, 의 inner product는 다음과 같다. (뒤에 곱해주는 벡터는 복소수 앞의 부호가 반전 됨을 주의(켤레). 벡터가 에 속할 때는 복소수가 없기 때문에 그냥 곱해줬던 것) Ex 3) (사이의 연속 함수들의 집합일 때) Def. Conjugate transpose 일 때  의 Conjugate transpose는 라 한다. Conjugate transpose는 책마다 adjoint 라고도 […]

계속 읽기

김영길/ 선형대수학/ Eigen decomposition, Cayley-Hamilton theorem, inner product space

(대각화 가능 판별 예제 생략 – 교재 참조) (행렬의 n승을 구하는 예제 생략 – eigenvalue, eigenvector를 이용해서 대각화하면 계산 된다) System of differential equations 주어진 연립 미분 방정식이 다음과 같을 때, 해를 구하는 방법 에서 파생 는 Diagonal matrix 로 치환 각 함수는 독립적 (system is decoupled) 했던 것을 되돌려준다. eigenvalue, eigenvector를 이용해서 system을 decoupling […]

계속 읽기

김영길/ 선형대수학/ Eigen decomposition

Corollary 개의 차원을 가진 선형변환 에 대하여 만일 가 개의 distinct eigenvalue를 갖고 있다면, 는 대각화가능하다. eigenvector를 볼 필요도 없다. Ex 1) 는 의 특성다항식이므로 eigenvalue는 이 된다.  는 행렬이었기 때문에, 는 대각화 가능하다. Thm 5.5의 역은 성립하지 않는다. 가 대각화 가능하다 개의 distinct eigenvalues Ex) 이때 의 eigenvalue는 1개 뿐이다. 하지만 는 항상 대각화가능하다. […]

계속 읽기

김영길/ 선형대수학/ diagonalizability, eigenvector

Thm 5.3 일 때 의 특성 다항식은 최고차항의 계수가 인 차 다항식이다. 는 최대 개의 서로 다른 eigenvalue를 갖는다. (차이기 때문. 아예 없을 수도 있다.) Thm 5.4 가 선형변환 의 eigenvector이고 가 eigenvalue일 때 이고 이다. (는 널공간) 증명) (eigenvalue를 이용해서 eigenvector를 구하는 예제 생략) 이므로 을 이용하여 eigenvector를 구한다. 가 eigenvector의 a basis consisting이라 […]

계속 읽기

김영길/ 선형대수학/ diagonalization, eigenvector, characteristic polynomial

Diagonal 행렬 가 Diagonal 하면 역으로 순서기저 가 를 만족시키면 EigenVector, EigenValue 선형변환 에 대하여  영이 아닌 벡터 가 를 만족할 때  를 eigenvalue라고 하고 를 eigenvector라 한다. 행렬에서는 일 때, 를 의 eigenvector라 한다. (eigenvector of ) Thm 5.1 선형변환 에대하여 의 eigenvector들로 이루어진 순서기저 를 만들 수 있으면 는 대각화가능이라고 한다. (eigenvector로 를 […]

계속 읽기

김영길/ 선형대수학/ determinant, Cramer’s rule, diagonalization, eigenvalue

Type 2 operation 행렬 가 행렬 의 어떤 행에 non-zero인 를 곱해준 행렬이라고 할 때 (Type 2 연산을 한 경우 곱해준 상수만큼 det가 변한다) (행렬에 상수를 곱해준 결과의 determinant는 행렬의 det에 을 곱한 것과 같다. row가 개 이기 때문) Determinant of upper triangular matrix 일 때 이것은 대각 원소들의 곱이면서 pivot들의 곱과 같다. (계산하는 예제 […]

계속 읽기

김영길/ 선형대수학/ system of linear equations, determinant

Thm 3.9 가 의 해 집합일 때 는 의 해 집합이라고 정의 는 의 해 중 하나 (non-homogeneous 방정식을 푸는 방법은 homogeneous 방정식을 먼저 풀고, non-homogeneous의 particular solution을 더해줌으로써 구한다) Ex 3) 일 때 (반드시 solution이 존재한다) homogeneous solution은 particular solution을 구하기 위해 free variable에 0을 대입한다. 결과 (homogeneous에 non-homogeneous 해를 1개 더해준 값) (homogeneous의 […]

계속 읽기