# 多特徵線性回歸 很多實際問題中,樣本的特徵很多,因此為了更進一步刻畫𝑥和𝑦之間的關係而增加特徵來表示,如下: ![image](https://hackmd.io/_uploads/S15CHTg5p.png) 𝑥𝑖的係數𝑤𝑖越大,𝑥𝑖對𝑓(𝑥)輸出值影響就越大,因此𝑤𝑖又被稱為權重。而𝑏雖然和𝑥𝑖無關,但仍會影響𝑓(𝑥)的輸出值,因此常被稱作偏置,並表示為𝑤0,同時,𝑥0 = 1 若將所有特徵以行向量表示,即𝑋 = (𝑥0, 𝑥1, … , 𝑥𝑘),並將這些特徵的係數用列向量表示,即𝑊 = (𝑤0, 𝑤1, … , 𝑤𝑘)𝑇。則函式如下 ![image](https://hackmd.io/_uploads/H17MLTlc6.png) 模型訓練就是透過已知目標值的一組樣本{𝑥 (𝑖) , 𝑦 (𝑖) }求解某種意義上的最佳假設 函數𝑓𝑤(𝑥),即確定假設函數的未知參數𝑤。 多變數假設函數也可用基於均方差的損失函數對誤差度量。 ![image](https://hackmd.io/_uploads/BkK4Iaec6.png) # 規範化(標準化) 若無使用規範化,則特徵值較大,造成梯度變化大影響收斂,藉由標準化將資料限制在一定值內可解決此問題 ![image](https://hackmd.io/_uploads/rk5WPalcp.png) 上式中𝜇為𝑥的平均值,而𝜎為𝑥的標準差。 題目: 以線性代數的觀點來解釋線性回歸問題 提示:投影matrix $p=x(x^tx)^{-1}x^t$