---
disqus: ierosodin
---
# Singular value Decomposition (SVD)
> Organization contact [name= [ierosodin](ierosodin@gmail.com)]
###### tags: `Linear Algebra` `學習筆記`
* 對於一個 Matrix,不一定存在 full set of eigenvalue,而其 eigenvectors 也不一定為 orthogonal。
* $A = U\Sigma V^T$,其中,$U$ 為 left sigular vectors matrix,$V$ 為 right sigular vectors matrix,$\Sigma$ 為 singular value matrix
* 如何確定 $U$ 與 $V$ 存在, 並且為 orthogonal matrix
* 我們知道, Symmetric matrix 可以得到 full set of eigenvalue, eigenvectors 互為 orthogonal, 且其為正定矩陣 $\Rightarrow \lambda > 0$.
* 因此對於任意矩陣 $A$, $A^TA$ 為對稱矩陣, $A^TA = V\Sigma^T U^TU\Sigma V^T = V(\Sigma^T\Sigma)V^T$, $V^T$ 即為 $A^TA$ 的 eigenvectors matrix, $v_i^Tv_j = 0$ for $i \neq j$
* $Av_i = \sigma_iu_i \Rightarrow u_i = \frac{Av_i}{\sigma_i}$, $u_j = \frac{Av_j}{\sigma_j}$, $u_i^Tu_j = \frac{v_i^TA^TAv_j}{\sigma_i\sigma_j}$
* 可以發現, $v_j$ 為 $A^TA$ 的 eigenvector, $\Rightarrow u_i^tu_j = \frac{v_i^T\sigma_j^2v_j}{\sigma_i\sigma_j} = 0$
* 再來細看 $U$ 與 $V$
* 假設矩陣 $A$ 為 $m \times n$, 並且其 rank 為 r
* $U$ 存在 r 個非零 eigenvalues 的 eigenvectors, 以及 m - r 個 eigenvalue 為零的 eigenvectors
* $V$ 存在 r 個非零 eigenvalues 的 eigenvectors, 以及 n - r 個 eigenvalue 為零的 eigenvectors
* $A\left[
\begin{array}{cccccc}
v_1 & v_2 & ... & v_r & ... v_n \\
\end{array}
\right] = \left[
\begin{array}{cccccc}
u_1 & u_2 & ... & u_r & ... u_m \\
\end{array}
\right] \left[
\begin{array}{ccccc}
\sigma_1 & & & | \\
& ... & & | & 0 \\
& & \sigma_r & | \\
\_ & \_ & \_ & | & \_ \\
& 0 & & | & 0 \\
\end{array}
\right]$
* 對於 $i \leq r$, $v_i$ 為 C(A^T) 的 basic
* 對於 $i \leq r$, $u_i$ 為 C(A) 的 basic
* 對於 $i > r$, $v_i$ 為 N(A) 的 basic
* 對於 $i > r$, $u_i$ 為 N(A^T) 的 basic
* Reduced form of SVD
* $A\left[
\begin{array}{cccc}
v_1 & v_2 & ... & v_r \\
\end{array}
\right] = \left[
\begin{array}{cccc}
u_1 & u_2 & ... & u_r \\
\end{array}
\right] \left[
\begin{array}{cccc}
\sigma_1 \\
& \sigma_2 \\
& & ... \\
& & & \sigma_r \\
\end{array}
\right]$
* The geometry of SVD
* 假設 $A$ 為 $2 \times 2$ 的矩陣, $Ax = U\Sigma V^T$
* $V^Tx$: rotate $x$ to $V^Tx$
* 因為 $V$ 為 orthogonal matrix, 因此長度不變
* $\Sigma V^Tx$: stretche $V^Tx$ by $\Sigma$
* $U\Sigma V^T$: rotate to $Ax$
* Maximum value
* $\frac{||Ax||}{||x||}$
* $x = v_1$
* $\frac{{||Ax||}^2}{{x}^2} = \frac{x^TA^TAx}{x^Tx} = \frac{x^TSx}{x^Tx}$
* 對於任意的 $x = c_1v_1 + c_2v_2 + ... + c_nv_n$, $\sum c_i = 1$
* $x^TSx = \lambda_1c_1^2 + \lambda_2c_2^2 + ... + \lambda_nc_n^2$
* $x^Tx = c_1^2 + c_2^2 + ... + c_n^2$
* $\Rightarrow \frac{x^TSx}{x^Tx} = \frac{\lambda_1c_1^2 + \lambda_2c_2^2 + ... + \lambda_nc_n^2}{c_1^2 + c_2^2 + ... + c_n^2}$
* 因為 $\lambda_1 > \lambda_2 > ... > \lambda_n$, 當 $c_1 = 1, c_2 = c_3 = ... + c_n = 0$ 有最大值
* 若 $x^Tv_1 = 0$
* 則 $\frac{x^TSx}{x^Tx} = \frac{\lambda_2c_2^2 + ... + \lambda_nc_n^2}{c_2^2 + ... + c_n^2} \Rightarrow c_2 = 1, c_3 = ... + c_n = 0$ 時有最大值
* The polar decomposition
* $A = QS$
* 每個 real square matrix 都可以拆解成一個 orthogonal matrix 與一個 symmetric matrix 相乘
* $A = U\Sigma V^T = (UV^T)(V\Sigma V^T) = QS$
* 若 A 為可逆矩陣, 則 S 必為正定矩陣
* $S = V\Sigma V^T = A^TA$
* 因為 $V$ 為 orthogonal matrix, columns of $A$ are independent
* $S$ 為正定矩陣