# 【資工考研】線性映射 - 座標化與矩陣表示法 線性代數複習重點摘要 ## 題目 1 (是非題) > Any invertible $n\times n$ matrix is the transition matrix for some pair of bases for $\mathbb{R}^n$. ### 轉移矩陣 想要快速想出這題的答案,我們需要對座標、矩陣表示法的內容足夠熟悉 這邊我們快速回憶一下: 給定空間基底 $\beta =\left\{ b_i \right\}_{i=1}^n$ , $x$ 的座標向量為 $\left[ x \right]_{\beta}\equiv \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \\ \end{bmatrix}$ 若給定基底 $\beta$ 則 $x$ 可被 $\left[ x \right]_{\beta}$ 唯一決定 定義 $c_\beta:x\mapsto \left[ x \right]_\beta$ 為座標同構映射,$c_\beta$ is linear, 1-1, onto 考慮 $T\in\mathcal{L}(V,V')$ , $\beta =\left\{ b_i \right\}_{i=1}^n$ 跟 $\gamma =\left\{ r_i \right\}_{i=1}^m$ 分別是前後空間的基底,我們可以定義出矩陣表示法: $$ \left[ T \right]_\beta^\gamma\equiv \left[ \left[ T(b_1) \right]_\gamma \cdots \left[ T(b_n) \right]_\gamma\right]_{m\times n} $$ 對於這個矩陣表示法,我們一定要很有感覺,幫助自己快速恢復記憶 首先,這是一個 $m\times n$ 的矩陣 再來,上述定義我們拆解步驟來看,我們已經給定後空間的基底 $\gamma$ 了,所以我們自然可以對每個 $T(b_i)$ 定出座標向量,把這 $n$ 個座標向量擺在一起就表示成了矩陣,而 $T(b_i)$ 是前空間基底 $\beta$ 的每個向量經過 $T$ 映射後的結果,也就是 $b_i$ 的像 這件事我們打從高中數學就不知不覺養成了直覺般的動作,以至於當我們回過頭來看這件事怎麼出來時,既熟悉又陌生 接著我們就能來真正觸碰這題的核心,什麼是轉移矩陣? **Def:** $\Lambda_\beta^\gamma=\left[ I_V \right]_\beta^\gamma\equiv \left[ \left[ b_1 \right]_\gamma\cdots \left[ b_n \right]_\gamma \right]$ 其中,$I_V:V\longrightarrow V$ is defined by $I_V(x)=x, \forall x\in V$ ,即單位映射 (identity mapping) 這邊一個小觀察你會發現單位映射前後空間相同,這表示我們上面定義的轉移矩陣其實就是個 $n\times n$ 的方陣 這個轉移矩陣必為可逆的 為什麼? 前面說 $c_\beta$ is linear, 1-1, onto 又我們知道對於 $T\in\mathcal{L}(V,V')$ , $T \text{ is 保獨立} \Leftrightarrow T \text{ is 1-1}$ 所以 $c_\gamma(\beta)$ 為獨立集,換句話說轉移矩陣**行獨立** 再回想一下,對於 $n\times n$ 的矩陣 $A$ , $A$ 行獨立若且唯若 $A$ 可逆 我們在熟透了前面這些事情的情況下,幾秒之內就能想通轉移矩陣可逆這件事了 *** 題外話 從上面可以體會到,線代差不多從線性映射這邊開始大量用到前面一些矩陣、 vector space 那累積的知識 而我覺得最有效的複習方式就是在前面不是完全失憶的情況下直接從線性映射開始複習 *** ### 解題 好,我們現在回來看題目問了什麼 題目說: 任意 $n\times n$ 的可逆矩陣會是 $\mathbb{R}^n$ 一些基底對 (pair of bases) 的轉移矩陣 如果我現在任意取 $\mathbb{R}^n$ 的兩組基底 $\beta$ 跟 $\gamma$ 那麼根據上面的定義,$\Lambda_\beta^\gamma$ 就是一個 $n\times n$ 的可逆矩陣 想到這應該可以秒殺這題了 對一個可逆矩陣 $P$ 我們取 $P$ 的行向量就會是 $\mathbb{R}^n$ 的一組基底,我們再取標準基底的話,這樣的轉移矩陣不就是 $P$ 自己嗎? 這題答案是 **True** *** ## 題目 2 (是非題) > If $B = \left\{ b_1, b_2 \right\}$ and $C = \left\{ c_1, c_2 \right\}$, then matrix $P = \begin{bmatrix} c1 & c2 \end{bmatrix}^{-1}\begin{bmatrix} b1 & b2 \end{bmatrix}$ satisfies $\left[ x \right]_C = P\left[ x \right]_B$ ### 解題 我們知道向量換底公式 $$ \left[ x \right]_\gamma=\Lambda_\beta^\gamma\left[ x \right]_\beta $$ 其實就是我們上面那麼多字複習的小總結 想一下題目 1 ,你會發現 $P$ 不就是 $\Lambda_B^C$ 嗎? 秒殺了,答案是**True** ## 題目 3 > Let $f:\mathbb{R}^2\longrightarrow \mathbb{R}^3$ be a linear map. $f((1,0)) = (3,-3, 4)$ and $f((0,1)) = (1,6,8)$, what is the standard matrix $A$ of $f$? ## 解題 可以發現題目給的 $\left\{ \begin{pmatrix} 1 \\ 0 \end{pmatrix} \begin{pmatrix} 0 \\ 1 \end{pmatrix} \right\}$ 是 $\mathbb{R}^2$ 的標準基底 基於上面複習的內容,我們任意取一組 $\mathbb{R}^3$ 的基底並按照定義就能秒殺這題了 ![image](https://hackmd.io/_uploads/HyVcbbm2C.png) 基本要解的就只有怎麼用 $\gamma$ 去線性組合出 $T(b_i)$ ,這個還要教就有點汙辱人了 😂