Try   HackMD

Definition

image


Theorem

image

原本

S 只是一個
V
中的 orthonormal set(即
S
中所有向量相互垂直,且長度皆
= 1

orthonormal 保證垂直,並且防止

0 出現在
S
裡面(因為
0
長度
1
)因此即保證了線性獨立,所以
S
才能擴充成
V
的 basis

(a) 在說的:我們可以加一些向量,把
S
擴充成
V
的 basis
(b)
在說的是:如果我們令
W =span(S)
,我們在
(a)
擴充
S
V
的 basis 時加的那些向量,就是
W
的正交補集的 basis


易錯觀念

image

  • 如果只是 subsetsubspace,取兩次

    不一定會相等(可能會變大)
     
    不可消

  • subspace 且為有限維向量空間 兩個

    才可消

  • 兩個 subspace 可能互相 orthogonal ,卻不互為彼此的正交補空間

理由:他們的維度可能太小

例子:

R3 中,令 subspace
V = span{(0,1,0)}
,
W = span{(0,0,1)}

V
W
垂直(因為他們的基底向量內積 =
0

但是
VW
WV

W
應為一個二維平面,
V
只是
W
的其中一部分

但如果加上保證

dim(V)+dim(W)= 所在空間的維度,則

V =W
W =V
(V) = V

image


如果把

Rn 拆成兩個正交補空間
V
W
,就會把
Rn
中每個
x
拆成
v+w

其中:
v = ProjV x

w = ProjW x

image

Fundamental Theorem of orthoganality

N(A) = RS(A)  (in Rn)
N(AT) = CS(A)(in Rm)

因為上面的這個 Theorem,由

N(A) = RS(A) 我們可以在圖中看到,所有
Rn
中的向量都可以拆成兩個部分:

xr = ProjRS(A) x
xn = ProjN(A) x

意思就是:所有的向量

x 都能拆成一個列空間的向量和一個 kernel 中的向量的和

 x = xn+xr

如果我們將這個等式左右同乘

A,會得到:
Ax = Axn+Axr

 xnN(A)
 Axn=0

Ax = Axr

這個式子在告訴我們的是:
列空間到行空間的轉換,

A 實際上是可逆的,也就是說,所有在行空間裡的
b
,其實都是從列空間裡的
xr
來的,而且
xr
唯一

所有的矩陣都會把

RS(A) 轉換成
CS(A)

A:  CS(AT)  CS(A)
AT:CS(A)  CS(AT)

所以當

A 可逆時(即
rank r=m=n

我們可以利用
(A)1
CS(A)  CS(AT)

但如果

A 不可逆
我們可以用 pseudoinverse
A+

A+Ax = xRS(A)


Reference

  • Linear Algebra and Its Applications, 4/e (Gilbert Strang)
  • Linear Algebra, 4/e (Stephen H. Friedberg, Arnold J. Insel etc.)