# 線性代數 - Positive [Semi]definite Operators/Matrix
[TOC]
## 定義:正定/半正定
:::warning
**Def (半正定/正定線性運算)**
假定 $V$ 是一個 $\mathbf F$ 上的內積空間,且 $T \in \mathbb L(V)$。假定 $T$,*adjoint*,則:
**1. 半正定線性運算:** 若對於任意 $V$ 中的非零向量 $x$,$T$ 都滿足:
$$
\boxed{\langle T(x), x \rangle \geq 0}
$$
則稱 $T$ 為半正定。
**2. 正定線性運算**:若對於任意 $V$ 中的非零向量 $x$,都有:
$$
\boxed {\langle T(x), x \rangle > 0}
$$
則稱 $T$ 是一個正定的線性運算。
:::
## 定義:半正定/正定矩陣
:::warning
**Def (半正定/正定矩陣)**
假定 $V$ 是一個 $F$ 上的向量空間,且 $A \in F^{n\times n}$。若對於 $A$,定義以下的線性運算:
$$
\begin{align}
L_A : F^{n} & \to F^{n}
\newline
x &\mapsto Ax
\end{align}
$$
並且假定 $F^n$ 使用之內積為標準內積。則定義:
1. **半正定矩陣**:
假定 $L_A$ 是一個半正定的線性運算,則稱 $A$ 是一個半正定的矩陣。
2. **正定矩陣**
假定 $L_A$ 是一個正定的線性運算,則稱 $A$ 是一個正定的矩陣。
:::
### 觀察:矩陣中的對應
:::danger
假定 $V$ 是 $\mathbb C$ 或 $\mathbb R$ 上的有限維向量空間,且 $T \in \mathbb L(V)$。則下列兩個敘述等價:
1. **T 半正定**:即 $T^* = T$,且:
$$
\langle T(x), x \rangle \geq 0 \quad \forall x > 0
$$
2. **T 用正規基底量出來的矩陣是半正定矩陣**:
對於任何一個 *orthonormal basis* $\beta$,若用 $A$ 表示「$T$ 用 $\beta$ 量出來的矩陣表示法」:
$$
A = [T]_{\beta}^{\beta}
$$
是一個半正定矩陣。
:::
這可以直接宣稱:
$$
\langle T(x), x \rangle = \bigg([x]_{\beta} \bigg)^*\bigg([T]_{\beta}^{\beta}[x]_{\beta}\bigg)
$$
這樣標準內積的結果就會被 $\langle T(x), x \rangle$ 綁住,然後就證明完了。為了方便,令:
$$
\begin{align}
[T]_{\beta}^\beta &= A
\newline
[x]_\beta &= X
\end{align}
$$
所以,現在就是要問下面這個東西會不會比零大:
$$
X^*(AX)
$$
因為是標準內積,所以展開來就發現
$$
\sum_{i}\overline{X_i}\sum_{j}A_{ij}X_j
$$
首先,因為 $\beta$ 是標準基底,所以對於 $T$ 的矩陣表示法 $A$,$A$ 的第 $ij$ 元是:
$$
\begin{align}
A_{ij} &= \langle T(\beta_j), \beta_i \rangle
\newline
X_i &= \langle X_i, \beta_i \rangle
\end{align}
$$
把它帶回上面,就會發現其實是在算:
$$
\sum_i \overline{\langle x, \beta_i \rangle}\sum_j \langle T(\beta_j), \beta_i \rangle \langle x, \beta_j \rangle
$$
或是把 $i$ 塞進去:
$$
\sum_i \sum_j \overline{\langle x, \beta_i \rangle} \langle T(\beta_j), \beta_i \rangle \langle x, \beta_j \rangle
$$
然後就暴力展開啊,先對 $j$ 加總,再對 $i$ 加總,然後就發現這坨東西算的根本就是 $\langle T(x), x \rangle$,然後就證明完了。
## 等價條件:實數時特徵值不為負
:::danger
假定 $V$ 是一個 $\mathbb R$ 上的有限維向量空間,且 $T \in \mathbb L(V)$,且 $T^* = T$,則:
**1. 自伴線運的半正定等價條件**
「$T$ 為半正定」等價於 「$T$ 的特徵值均不小於零」:
$$
\begin{align}
&\langle T(x), x \rangle \geq 0\quad \forall x \iff \lambda \geq 0 \quad \forall \lambda
\end{align}
$$
**2. 自伴線運的正定等價條件**
「$T$ 為正定」等價於 「$T$ 的特徵值均大於 $0$」:
$$
\begin{align}
&\langle T(x), x \rangle > 0\quad \forall x \iff \lambda > 0 \quad \forall \lambda
\end{align}
$$
:::
($\Rightarrow$):這個直接把半正定或正定的定義拿出來驗證就好。對於任何一個特徵值 $\lambda$,都可以找到一個長度為 $1$ 的特徵向量。假定這個特徵向量叫做 $x$,那麼可以發現:
$$
\langle T(x), x \rangle = \langle \lambda x, x \rangle = \lambda
$$
因此就表示: $\lambda$ 的正負號跟 $\langle T(x), x \rangle$ 一樣。因此由 $T$ 是依照半正定或正定就可知 $\lambda$ 分別只會大於等於 $0$ 或等於 $0$。
($\Leftarrow$):因為半正定的定義以自伴為前提,由「自伴定理」知道 $T$ 有正規特徵基底。令正規特徵基底為 $\beta$。把任何一個 $x \in V$ 用這組正規特徵基底表出來:
$$
x = \sum_{i = 1}^{n}\langle x, \beta_i \rangle \beta_i
$$
然後暴力看看 $\langle T(x), x\rangle$ 會跑出什麼東西來:
$$
\begin{align}
\langle T(x) , x \rangle &= \left \langle T\left(\sum_{i = 1}^{n}\langle x ,\beta_i \rangle \beta_i \right) , \left(\sum_{i = 1}^{n}\langle x ,\beta_i \rangle \beta_i\right) \right \rangle \newline
&= \left \langle \sum_{i = 1}^{n}\langle x ,\beta_i \rangle \lambda_i\beta_i , \sum_{i = 1}^{n}\langle x ,\beta_i \rangle \beta_i \right \rangle \newline\newline
&= \sum_{i = 1}^{n} \lambda_i |\langle x ,\beta_i \rangle |^2 \end{align}
$$
因此,依照所有特徵值大於等於 $0$ 或大於 $0$,就可以證明 $\langle T(x), x \rangle$ 必定要大於等於 $0$ 或大於 $0$。
## 等價條件:可以開根號
:::danger
假定 $V$ 是一個 $\mathbb R$ 或 $\mathbb C$ 上的有限維內積空間。則:
**1. 半正定線運 = 可以開根號**
假定 $T \in \mathbb L(V)$ 。則「$T$ 半正定」的充分必要條件是:存在線性運算 $U$,使得:
$$
\boxed{\begin{align}
&T \text{ is positive semidefinite}
\newline
& \iff \exists U \in \mathbb L(V).\ T = U^*U
\end{align}}
$$
**2. 半正定矩陣 = 可以開根號**
假定 $A \in \mathbf F^{n \times n}$。則:
$$
\boxed{\begin{align}
&A \text{ is positive semidefinite}
\newline
&\iff \exists B \in \mathbf F^{n \times n}.B^*B = A
\end{align}}
$$
:::
這個是先證明矩陣的,矩陣的證明完之後,把矩陣找到的 $B$ 用 *isomorphism* 對應回線性運算,然後就結束了。
($\Leftarrow$):要證明這件事情,就要證明 $L_A$ 是半正定。但因為有:
$$
\begin{align}
B^*B &= A
\newline
\underbrace{L_{B^*B}}_{L_{B}^*L_B} &= L_{A}
\end{align}
$$
所以就可以證明 $L_A$ 是半正定。因為:
$$
\langle L_A(x), x \rangle = \langle (L_B^* L_B)(x), x \rangle = \langle L_B(x), L_B(x) \rangle
$$
這東西根本就是 $\|L_B(x)\|$,所以必定不小於 $0$。然後這個方向就證明完了。
($\Rightarrow$):不管這邊的 $F$ 是 $\mathbb R$ 或 $\mathbb C$,因為 $A$ *self-adjoint*,所以任何狀況都找到一個 $Q$,使得:
$$
A = Q^* D Q
$$
其中 $Q$ 是一個 *unitary* 的矩陣,而 $D$ 是一個對角矩陣。而且 $D$ 的對角線元素通通都是都是 $A$ 的特徵值。但因為現在這個東西是半正定,所以每一個 $A$ 的特徵值都不小於 $0$,所以就可以定義一個矩陣 $C$,這個矩陣的第 $ij$ 元是:
$$
O_{ij} = \begin{cases}\sqrt D_{ij} & i\text{ if } i = j
\newline
0 & \text{ otherwise}
\end{cases}
$$
因為 $C$ 中每一個元素都是實數,而且他又是對角矩陣,所以他自己的共軛轉置相乘,結果很顯然就是自己的平方,也就是變成 $D$:
$$
O^*O = OO = D
$$
現在就可以湊 $B$ 了。令:
$$
B = OQ
$$
這樣一來,暴力帶進去算 $B^*B$,就會發現它跟 $A$ 一樣:
$$
\begin{align}
B^*B &= (OQ)^*(OQ)
\newline
&= Q^*\underbrace{O^*O}_{D}Q
\newline
&= Q^*DQ = A
\end{align}
$$
## 性質:半正定平方之後維持半正定
:::danger
假定 $V$ 是一個 $F$ 上的有限維內積空間,則:
**1. 半正定線性運算平方後仍然半正定**:
假定 $T \in F^{n \times n}$。若 $T$ 是半正定,則 $T^2$ 也是半正定:
$$
\boxed{\begin{align}
&T \text{ is positive semidefinite}
\newline
&\Rightarrow T^2 \text{ is positive semidefinite}\newline
\end{align}}
$$
**2. 半正定矩陣平方後仍然半正定**:
假定 $A \in F^{n \times n}$。若 $A$ 為半正定,則 $A^2$ 也是半正定:
$$
\boxed{\begin{align}
&A \text{ is positive semidefinite}
\newline
&\Rightarrow A^2 \text{ is positive semidefinite}\newline
\end{align}}
$$
:::
線性運算的部分,因為 $T$ 已經 *self-adjoint* 了,所以就看看 $T^2$ 是否滿足半正定的定義:
$$
\langle T^2(x) \mid x \rangle = \langle T(x) \mid T^*(x) \rangle = \langle T(x) \mid T(x) \rangle \geq 0
$$
然後就發現真的是半正定。接著證明矩陣的部分,假定 $A$ 半正定,因為半正定以自伴為前提,故 $A^* = A$。因此:
$$
A^2 = AA = A^*A
$$
然後用上面的定理就證明完了。
## 性質:開根號的結果半正定,則平方根唯一
:::danger
假定 $V$ 是一個 $F$ 上的有限維內積空間,則:
**1. 如果線運有半正定的平方根,則平方根唯一**:假定 $T_1, T_2 \in \mathbb L(V)$,且 $T_1, T_2$ 均為半正定。若:
$$
T_1^2 = T_2^2
$$
則:
$$
T_1 = T_2
$$
**2. 如果矩陣有半正定的平方根,則平方根唯一**:
假定 $A, B \in F^{n}$,且 $A, B$ 均為半正定矩陣。若:
$$
A^2 = B^2
$$
則:
$$
A = B
$$
:::
只要證線運版的,矩陣版就自動證出來,因為矩陣版的定義也是用線運訂出來的。$A, B$ 半正定表示 $A_A, L_B$ 半正定,如果再有 $A^2 = B^2$,那麼就可以一步一步把他轉換成線性轉換版的問題。因為兩個矩陣相等的定義是兩個矩陣所「對應的矩陣線性轉換」是同樣的,套在這邊的話, $A^2 = B^2$ 的定義就是:
$$
L_{A^2} = L_{B^2}
$$
而 $A^2$ 跟 $B^2$ 其實只是 $AA$ 跟 $BB$ 的簡寫:
$$
L_{AA} = L_{BB}
$$
所以再利用矩陣線性轉換的性質,上面這個東西其實跟下面這個東西是一樣的:
$$
(L_A)^2 = (L_B)^2
$$
假設現在線性轉換的版本對,那套用線性轉換版的結論,就會得到 $L_A = L_B$。但這就是 $A = B$ 的定義,所以不用。接下來專心證線轉版的就好。
---
1. 首先, $T_1, T_2$ 半正定,而前面的推論知道:若 $T_1, T_2$ 半正定,則 $T_1^2, T_2^2$ 也都是半正定。
2. 接著,半正定的定義自動包含了自伴,所以 $T_1^2= T_2^2$ 也自伴。既然自伴,所以就存在 $T_1^2$ 這個線性轉換的正規特徵基底。假定這個正規特徵基底叫做 $\beta$。
3. 最後,因為 $T_1^2$ 跟 $T_2^2$ 都半正定,所以他所有的特徵值不小於 $0$。
因此,對於任意 $\beta_i \in \beta$,都有:
$$
T_1^2(\beta_i) = T_2^2 (\beta_i) = \lambda_i \beta_i \quad \lambda_i \geq 0
$$
現在要證明的目標是:每一個 $\beta$ 中的元素,都會被 $T_1$ 跟 $T_2$ 送去一樣的地方:
$$
T_1(\beta_i) = T_2(\beta_i) \quad \forall \beta_i \in \beta
$$
假定現在 $\lambda_i = 0$,所以這個 $\beta_i$ 不管是帶進去 $T_1^2$ 或 $T_2^2$,結果都是 $0$。所以下面這個東西的內積也都是 $0$:
$$
\langle T_1^2(\beta_i), \beta_i \rangle = \langle T_2^2(\beta_i), \beta_i \rangle = 0
$$
這時用上 $T_1, T_2$ 是 *self-adjoint*,翻過去之後就會發現這根本就是在說 $T_1(\beta_i)$ 跟 $T_2(\beta_i)$ 的長度是 $0$:
$$
\underbrace{\langle T_1(\beta_i), T_1(\beta_i) \rangle}_{\|T_1(\beta_i)\|^2} = \underbrace{\langle T_2(\beta_i), T_2(\beta_i) \rangle}_{\|T_2(\beta_i)\|^2} = 0
$$
既然長度是 $0$,所以唯一的可能就是這個向量是 $0$。也就是:
$$
T_1(\beta_i) = T_2(\beta_i) = 0
$$
所以 $T_1$ 跟 $T_2$ 就把這個基底送到一樣的地方。
接下來證明:$\beta_i$ 對應的特徵值 $\lambda_i$ 不是 $0$ 時,$T_1$ 跟 $T_2$ 也會把這個 $\beta_i$ 送去一樣的地方。事實上,接下來要證明的是「$\beta_i$ 也是 $T_1, T_2$ 的特徵向量」,而且他們的特徵值只差開根號。也就是:
$$
T_1(\beta_i) = T_2(\beta_i) = \sqrt{\lambda_i} \beta_i
$$
為了方便下面說明,假定 $T$ 是 $T_1$ 跟 $T_2$ 裡面隨便一個,也就是 $T \in \{T_1, T_2\}$。由前提知道:不管 $T = T_1$ 或 $T = T_2$,都會滿足:
$$
(T^2 - \lambda_i I)(\beta_i) = 0
$$
而這就是在說:
$$
\underbrace{(T + \sqrt{\lambda_i} I)}_{(1)}\underbrace{(T - \sqrt{\lambda_i}I)}_{(2)}(\beta_i) = 0
$$
而現在的證明目標是:從上面這個東西推論到下面這個東西:
$$
\underbrace{(T - \sqrt{\lambda_i}I)}_{(2)}(\beta_i) = 0
$$
如果可以證明 $(1)$ 是個線性對轉,那就可以用怒空僅零保證 $\beta_i$ 帶進 $(2)$ 的結果是 $0$,然後就證明完了。而要證明這個東西,就是看 $(1)$ 的行列式是不是 $0$,也就是要算下面這個東西:
$$
\det \left(\left[T + \sqrt{\lambda_i}I\right]_{\beta}^{\beta}\right)
$$
而觀察一下他的形式,會發現這個東西根本就是 $T$ 的特徵多項式 $f_T$ 帶 $-\sqrt{\lambda_i}$ 進去。所以其實就是在算:
$$
f_T(-\sqrt{\lambda_i})
$$
假定 $\Lambda_j$ 是每個 $T$ 對應的特徵值,所以 $T$ 的特徵多項式 $f_T$ 就會有下面這樣的形式:
$$
f_T(t) = \prod_{j = 1}^{n}\left(\Lambda_j - t \right)
$$
其中,又因為前提有說 $T$ 是半正定。換句話說每一個 $\Lambda_j$ 通通都不小於 $0$。也就是:
$$
\Lambda_j \geq 0 \quad \forall \Lambda_j
$$
所以把 $-\sqrt{\lambda_i}$ 帶進 $f_T$,就發現是一堆正數乘在一起,所以一定不小於 $0$:
$$
f_T(-\sqrt{\lambda_i}) = \underbrace{\prod_{j = 1}^{n}\left(\lambda_j + \sqrt{\lambda_i}\right)}_{> 0}
$$
既然行列式值不是 $0$,就表示 $(1)$ 是個可逆的線性轉換。所以如果他會把某個元素送到 $0$,那一定是因為那個元素是 $0$。所以:
$$
\begin{align}
&\underbrace{(T + \sqrt{\lambda_i}I)}_{(1)}\underbrace{(T - \sqrt{\lambda_i}I)}_{(2)}(\beta_i) = 0
\newline
&\Rightarrow \underbrace{(T - \sqrt{\lambda_i}I)}_{(2)}(\beta_i) = 0
\end{align}
$$
但這就是在說:
$$
T(\beta_i) = \sqrt{\lambda_i} \beta_i
$$
所以就證明了 $\beta_i$ 也會是 $T_1$ 跟 $T_2$ 的特徵向量,而且都會把 $\beta_i$ 送到 $\sqrt{\lambda_i}\beta_i$。所以不管 $\lambda_i$ 是 $0$ 還是正數,$T_1$ 跟 $T_2$ 都會把 $\beta_i$ 送到一樣的地方。既然這兩個線性運算把一組基底每一個向量都送到一樣的結果,那證明了這兩個線性運算根本一樣。