1. space
๐ถ vector space
- linear space๋ผ๊ณ ๋ ๋ถ๋ฆฌ๋ฉฐ ์ด ๊ณต๊ฐ์์ ์ ์๋ ์์๋ฅผ ๋ฒกํฐ(vector)๋ผ ๋ถ๋ฅธ๋ค.
- vector space๋ ์งํฉ V์ ์์์ ๋ํด ์ ์๋๋ ๋ง์ , ์ค์๋ฐฐ์ฐ์ฐ์ด ๋ง์กฑ๋ ๋ V๋ฅผ ๋ฒกํฐ๊ณต๊ฐ(์ ํ๊ณต๊ฐ)์ด๋ผ ํ๋ฉฐ V์ ์์๋ฅผ ๋ฒกํฐ๋ผ ๋ถ๋ฅธ๋ค.
๐ถ subspace
- ๋ฒกํฐ๊ณต๊ฐ์ ๋ถ๋ถ์งํฉ์ด ๋ฒกํฐ๊ณต๊ฐ๊ตฌ์กฐ๋ฅผ ๊ฐ์ง ๋, ๊ทธ ๋ถ๋ถ์งํฉ์ ๋ถ๋ถ๊ณต๊ฐ์ด๋ผ ๋ถ๋ฅธ๋ค.
๐ถ Euclidean space
- vector space Rn์ ๋ํด ๋ฒกํฐ์ ํฌ๊ธฐ norm์ ์ ์ํ ๊ณต๊ฐ
- ์ด ๊ณต๊ฐ์์๋ ์ ํด๋ฆฌ๋ ๊ธฐํ๊ฐ ์ฑ๋ฆฝํ๋ฉฐ ์ด ์ ์๋ฅผ ์ด์ฉํด ๋ ์ ์ฌ์ด์ ๊ฑฐ๋ฆฌ๋ ์ ๋ถ์ ๊ธธ์ด๋ฅผ ๊ตฌํ ์ ์๋ค.
๐ถ (standard) inner product
- v·w ๋๋ <v, w>๋ก ํํํ๋ค.
- v·w = v1w1 + v2w2 + ... + vnwn = vTw = wTv๋ก ํํ๋๋ค.
1.1 ํ๋ ฌ A์ ์ด์ ์ด์ฉํ ๊ณฑ์ Ax
Ax = xโaโ + xโaโ๋ก ํํ๊ฐ๋ฅํ๋ค.
- ์ฆ, Ax๋ ํ๋ ฌ A์ ์ด์ ์ผ์ฐจ๊ฒฐํฉ์ผ๋ก ์ด๋ ํ๋ ฌ A์ column space๋ก ์ด์ด์ง๋ค.
- ์ด๋, xโ๊ณผ xโ๋ ์ค์์ด๋ฉฐ, ์ด ๋ฒกํฐ๊ณต๊ฐ์ ์์์ ๋ฒกํฐ x์ ๋ํด ๋ชจ๋ Ax๋ฅผ ํฌํจํ๋ค.
cf. aโ, aโ, aโ์ ์๋ก ๋ ๋ฆฝ(independent)์ด๋ค.
์ฆ, (xโ , xโ)๊ฐ Ax = b์ ํด๋ผ๋ฉด, b = (bโ , bโ , bโ)์ ํ๋ ฌ A์ column space C(A)์ ์์์ด๋ค.
๋ํ, n×n ๊ฐ์ญํ๋ ฌ์ ๋ํด Ax = b์ ์ ์ผ ํด๋ x = Aโป¹b์ด๋ฉฐ,
์ด๋ ๊ฐ์ญํ๋ ฌ์ ์ด์ ์ผ์ฐจ๊ฒฐํฉ ์ฆ, column space๋ Rโฟ๊ณผ ๊ฐ๋ค.
1.1.1 ํ๋ ฌ A์ ๋ ๋ฆฝ์ธ ์ด๊ณผ ๋ญํฌ
ํ๋ ฌ A์ ๊ธฐ์ (basis)๋ฅผ ์ฐพ์ ์ ์๊ณ , A๋ฅผ ๋ ํ๋ ฌ์ ๊ณฑ์ C × R๋ก ๋ถํดํ ์ ์์ ๋
์ต์ข ๋ชฉํ: ํ๋ ฌ A์์ ํ๋ ฌ C๋ฅผ ๋ฐ๋ก ์ฐพ๋ ๊ฒ
A์ n๊ฐ ์ด๋ก ์ฐพ์ ์ ์๋ ํ๋ ฌ C (์ด๋, ๊ฐ๋ฅํ ๋ง์ C์ ์ด์ด ์ผ์ฐจ๋ ๋ฆฝ์ด์ด์ผ ํ๋ค.)์ด๋, subspace์ basis๋ ์ผ์ฐจ๋ ๋ฆฝ์ธ ๋ฒกํฐ๋ก ์ด๋ฃจ์ด์ง๋ฉฐ
โป ๋ญํฌ ์ ๋ฆฌ
- ์ผ์ฐจ ๋ ๋ฆฝ์ธ ์ด๊ณผ ์ผ์ฐจ๋ ๋ฆฝ์ธ ํ์ ๊ฐ์๋ ๊ฐ๋ค.
์ฆ, rank = ์ผ์ฐจ๋ ๋ฆฝ์ธ ์ด์ ์ต๋ ๊ฐ์ = ์ผ์ฐจ๋ ๋ฆฝ์ธ ํ์ ์ต๋ ๊ฐ์
A = CR๋ก ํํ๋ ๋, ์ด๋ ํ๋ ฌํฌ๊ธฐ๋ (m × n) = (m × r) (r × n)์ด๋ค.
์ฆ, ํ๋ ฌ A์ ๊ณ์(rank)๋ ํ๊ณต๊ฐ๊ณผ ์ด๊ณต๊ฐ์ ์ฐจ์์ ๋ปํ๋ค.
Ex.
Ex.
'Gain Study > Linear Algebra & Learning from Data' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
1.4 ์๊ฑฐ๋ฒ๊ณผ A = LU๋ถํด, Cholesky๋ถํด (0) | 2023.06.29 |
---|---|
1.3 4๊ฐ์ง fundmental subspaces (0) | 2023.06.29 |
1.2 ํ๋ ฌ๊ณฑ์ (๋ด์ ) AB์ rank=1, ํ๋ ฌ ๋ถํด (0) | 2023.06.27 |
Part 0. Previews & Index (0) | 2023.06.27 |