# 李宏毅_Linear Algebra Lecture 25: Eigenvalues and Eigenvectors ###### tags: `Hung-yi Lee` `NTU` `Linear Algebra Lecture` [課程撥放清單](https://www.youtube.com/playlist?list=PLJV_el3uVTsNmr39gwbyV-0KjULUsN7fW) ## Linear Algebra Lecture 25: Eigenvalues and Eigenvectors [課程連結](https://www.youtube.com/watch?v=1RyHRIP8QGg&list=PLJV_el3uVTsNmr39gwbyV-0KjULUsN7fW&index=25) 課程會說明如何系統化的找出一個好的coordinate system ### Eigenvalues and Eigenvectors ![](https://i.imgur.com/5UU3BZ8.png) 如果有一個matrix-$A$、vector-$v$、scalar-$\lambda$,而$Av=\lambda v$,這意味著: 1. $v$為$A$的eigenvector 2. $v$對應的eigenvalue就是$\lambda$ 有兩個重點 * matrix-$A$一定是nxn的matrix * eigenvector並不考慮zero vector ### Eigenvalues and Eigenvectors ![](https://i.imgur.com/ZvEQE19.png) 每一個matrix都對應一個linear function(linear opearator)-$T$,如果$T(v) = \lambda v$,則: * $v$為$T$的eigenvector * $v$對應的eigenvalue就是$\lambda$ * eigenvector並不考慮zero vector ### Eigenvalues and Eigenvectors ![](https://i.imgur.com/RjcF1xZ.png) 這是一個[Shear Transform](https://zh.wikipedia.org/zh-tw/%E9%94%99%E5%88%87)的案例說明: * $T$只改變$x$座標,不改變$y$座標 * 點距離$x$軸愈遠,其變化愈大 * 藍色向量就是一個eigenvector,因為它帶入$T$之後還是自己,其eigenvalue=1 ### Eigenvalues and Eigenvectors ![](https://i.imgur.com/uvsDwtM.png) 假設有一個function,其功用就是對y=(1/2)x做reflection: * 假設有一個vector-$b_1$就在這個函數上,那$T(b_1)=b_1$,這時候這個$b_1$就是eigenvector,其eigenvalue=1 * 假設有一個vector-$b_2$與函數垂直,那$T(b_2)=-b_2$,而$b_2$也是eigenvector,其eigenvalue=-1 ### Eigenvalues and Eigenvectors ![](https://i.imgur.com/UsPLynq.png) 這個範例是將照片放大、縮小的例子。將每個pixel視為座標點,每個座標點都乘上2、或乘上0.5就可以達到放大、縮小的效果。 對Expansion與Compression而言,任意的vector都是eigenvector,但Expansion的eigenvalue為2,而Compression的eigenvalue為0.5。 ### Eigenvalues and Eigenvectors ![](https://i.imgur.com/FSm7Cfv.png) 並非所有的nxn的matrix或linear operator都會有eigenvalues與eigenvectors。舉例來說,Rotation(旋轉),它並不會是自己本身的n倍,任何位置旋轉之後都不會是自己的n倍,因此rotation這個linear operator不存在eigenvalues與eigenvectors。 ### Eigenvalues and Eigenvectors ![](https://i.imgur.com/KXIl7uF.png) 在給定eigenvalue的情況下該如何找出eigenvector? Eigenvalues與Eigenvectors之間的一個關係: * 每一個eigenvector都對應一個唯一的eigenvalue * 但每一個eigenvalue可以對應無窮多的eigenvector 對應同一個eigenvalue的eigenvector是否為subspace?答案是否定的,因為稍早有提過,eigenvector是不存在zero vector。 ### Eigenspace ![](https://i.imgur.com/4C3POzw.png) 假設我們知道matrix-A的eigenvalue-$\lambda$,找出所有對應$\lambda$的eigenvector: * 定義:$Av=\lambda v$,即$Av - \lambda v 0$ * 調整:$Av - \lambda I_n v = 0$ * 提出$v$:$(A - \lambda I_n)v = 0$(matrix-A的對角線值減去$\lambda$) * eigenvectors就是將這個式子的所有solution減去zero vector的集合 * 對應$\lambda$的eigenvector所成的集合就是$A - \lambda I_n$的null space扣掉zero vector,即$Null(A - \lambda I_n) - \left\{ 0 \right\}$ * $\lambda$的eigenspace就是$A - \lambda I_n$的null space + $\left\{ 0 \right\}$ * 並非所有eigenspace的vector都是eigenvector,因為eigenspace包含zero vector * 課程中$\lambda$所對應的eigenspace就是所有對應到$\lambda$的eigenvectors再加上$\left\{ 0 \right\}$(zero vector) ### Check Eigenvalues ![](https://i.imgur.com/l3tBFAe.png) 如何確定一個scalalr是否為eigenvalue: * 這很簡單,只要確定eigenspace長什麼樣子,如果eigenspace只有zero vector,那它就一定不是,如果有著zero vector以外的東西存在,那它就是eigenvalue * 可以判斷eigenspace的dimension,如果$Null(A - \lambda I_n) = 0$,那就代表它只存在zero vector,那就代表$\lambda$不是eigenvalue * 這要用之前課程提過的檢查subspace的方法來確定,如果$A - \lambda I_n$的vector都是indenpendent,那就代表它的Null space只有zero vector ### Check Eigenvalues ![](https://i.imgur.com/3Te2QWw.png) 這邊用範例說明如何檢查是否為eigenvalue: * 3 * 首先計算$Null(A - 3 I_2)$,$A$對角線計算,其餘不變 * 空間中畫出,所有在線上的都是eigenvector * 帶入$T$得證,3為matrix-$A$的eigenvalue * 2 * 首先計算$Null(A + 2 I_2)$,$A$對角線計算,其餘不變 * 空間中畫出,所有在線上的都是eigenvector * 帶入$T$得證,-2為matrix-$A$的eigenvalue ### Check Eigenvalues ![](https://i.imgur.com/XBMj8gL.png) 這邊的問題是確認3是否為matrix-$B$的eigenvalue,如果是,那請找出它的eigenspace的basis: * 首先計算$Null(B - 3 I_3)$,$B$對角線計算,其餘不變 * 檢查$B - 3 I_3$的null space有多大 * 確認column是否為dependent,因存在zero vector,因此為dependent,也因此其null space不會只有zero vector,因此3為$B$的eigenvalue * 又或者可以利用determinant來確認,因為有一個row、column為0,因此其determinant=0,這意味著這個matrix是non-invertible,這種matrix的null space會包含zero vector以外的vector,因此3為$B$的eigenvalue * 計算$B - 3 I_3$的RREF * 寫出其parametric representation,得出其basis,(1, 0, 0; 0, 1, 1),將這兩個vector做linear combination可以得到所有的eigenvector,記得扣掉zero vector ### Looking for Eigenvalues ![](https://i.imgur.com/WLekRbw.png) 剛才的問題是給定一個eigenvalue來確定是否為eigenvalue,現在是給出一個matrix,找出所有的eigenvalue。 假設某一個scalar-$t$為matrix-$A$的eigenvalue,那它會滿足幾個條件: * 如果$t$是eigenvalue,那就存在一個向量-$v$(非zero vector),其$Av = tv$ * 也就是$Av - tv = 0$,其中$v$(非zero vector) * 也就是$v$乘上identity matrix,這不影響結果,即$(A - t I_n)v=0$,其中$v$(非zero vector) * 也就是$(A - t I_n)v=0$要有多個解,因為最少會有一組zero的解 * 也就是$(A - t I_n)$的column為dependent * 也就是$(A - t I_n)$是non-invertible * 也就是det$(A - t I_n)=0$ 所以我們只要解det$(A - t I_n)=0$就可以找到所有的eigenvalue ### Looking for Eigenvalues ![](https://i.imgur.com/jsjsPHf.png) 上面給出一個範例,帶入公式,解determinant就可以得到$t=-3$或$t=5$,這邊我們發現到兩個特性: 1. 所有matrix的eigenvalues相乘會得到這個matrix的determinant 2. matrix的trace,即對角線值相加,會等於所有eigenvalues的和 ### Looking for Eigenvalues ![](https://i.imgur.com/v9WF91I.png) 找出eigenvalues就可以找出它的eigenspace,舉例來說,假設我們已經確定-3就是eigenvalue,即$Ax=-3x$,其$(A + 3I)x = 0$的解即為eigenvalue=-3的eigenspace。 同理,當eigenvalue=5的時候,其$(A-5I)x = 0$的解即為eigenvalue=5的eigenspace ### Looking for Eigenvalues ![](https://i.imgur.com/a9jheSY.png) 範例是給定一個linear operator,找出這個linear operator的eigenvalue: * 首先寫出這個linear operator的matrix-$A$ * 寫下$det(A-tI_n)=0$的數學式,展開之後就是將matrix-$A$的對角線都減$t$ * 計算其determinant,即$det(A - tI_n) = (-1 - t)^3$ * 得到$t = -1$為其解,即eigenvalue=-1 ### Looking for Eigenvalues ![](https://i.imgur.com/lRlXdKJ.png) 範例說明的是,證明rotation是沒有eigenvalue: * 寫下rotataion這個linear operator背後的matrix * 寫下$det(A-tI_n)=0$的數學式,展開之後就是將matrix-$A$的對角線都減$t$ * 計算其determinant,即$t^2 + 1 = 0$ * 我們發現,這個數學式是沒有實數解的 * 得證,rotation是沒有eigenvalue,或稱沒有實數的eigenvalue,但是有虛數解,不過虛數超過課程範圍,不討論 ### Characteristic Polynomial ![](https://i.imgur.com/yALp2yO.png) 稍早一連串範例所提的$det(A-tI_n)$的這個多項式,又稱為Characteristic Polynomial,而$det(A-tI_n)=0$則稱為Characteristic Equation。 要找出eigenvalue,就是找出characteristic polynomial的根(root),或是找出characteristic equation的解。 ### Characteristic Polynomial ![](https://i.imgur.com/s66GVTZ.png) 在eigenvalue的章節中,RREF的作用並不大,由下面的特性說明。 Characteristic Polynomial的特性: * matrix-A與其RREF-A的characteristic polynomials是不一樣的,因此也會有不一樣的eigen value * 如果兩個matrix是similar,那它們就會有相同的characteristic polynomials,這意味著會有相同的eigenvalue(見簡報證明) * 所謂的similar的matrix,即$B = P^{-1}AP$,當matrix$A$的左右乘上一個matrix-P與其inverse-$P^{-1}$會等於$B$的時候,則$A, B$為similar matrix 證明$det(B-tI) = dep(A-tI)$: * 帶入$AB$之間的關係,即$B = P^{-1}AP$,得到$det(P^{-1}AP)$,而$tI$則帶入$P^{-1}(tI)P$,合併來看則為$det(B-tI) = det(P^{-1}AP - P^{-1}(tI)P)$ * 提出$P^{-1}$與$P$,得到$det(P^{-1}(A-tI)P)$ * determinant matrix相乘會等於先取determinant再相乘,即$det(P^{-1})det(a-tI)det(P)$ * $det(P^{-1})$與$det(P)$是可以消掉,相乘為1 * 得證$det(B-tI) = dep(A-tI)$ 在說明coordinate system的時候提過similar,也就是同一個matrix在兩個不同的coordinate system下看待的結果,雖然看起來是兩個matrix,但其實是同一個。因此可以知道的是,一個matrix在不同的coordinate system下,它的eigenvalue是不變的,但eigenvector是會變的。 ### Characteristic Polynomial ![](https://i.imgur.com/i740OEF.png) 這邊繼續說明Characteristic Polynomial的特性: * 假設你的matrix是nxn,其Characteristic Polynomial的order(degree)也會是n * 這可以從$det(A-tI_n)$來看,以3x3矩陣為例,帶入公式可以發現,對角線一定會是一個未知系數乘上$t$的三次方,也就是n * 一個nxn的矩陣會擁有多少個eigenvalue * 我們已經知道,eigenvalue就是Characteristic Polynomial的root,一個order為n的Characteristic Polynomial,其root最多就是有n個。也就是一個nxn的matrix,其eigenvalue的數量一定小於等於n ### Characteristic Polynomial V.S. Eigenspace ![](https://i.imgur.com/Lle6nCK.png) 對Characteristic Polynomial做因式分解(Factorization),即$det(A-tI_n)=(t-\lambda_1)^{m_1}(t-\lambda_2)^{m_2}...(t-\lambda_k)^{m_k}(... ...)$,每一個$\lambda$都對應一個eigenvalue,每一個eigenvalue都對應一個eigenspace(dimension),其中dimension一定會小於其multiplicity ### Characteristic Polynomial ![](https://i.imgur.com/LySXDwq.png) 這邊繼續說明Characteristic Polynomial的特性: * 如果一個matrix為upper triangular(對角線以下為0的矩陣)或lower triangular,其Characteristic Polynomial就會單純的就是對角線相乘,因此其root即為對角線值,範例來看即為$a, b, c$