###### tags: `MLCC` # Descending into ML ## Linear Regression 線性回歸 ![](https://i.imgur.com/MWvTUxt.png =500x) 1. 首先找定一個 feature ,再定要觀察的目標(Label),標出 feature & label 的關係 2. 找到一條線 `y = m·x + b`,使每一個點(feature & label 畫出的點)和線的垂直距離加總最小的線 3. 套用到 model 的線性回歸公式為 `y' = b + w1·x1` - w - 權重 - b - bias,y截距 - x - feature值 - y - label值 > 多特徵的線性回歸公式 > `y' = b + w1·x1 + w2·x2 + ... + wn·xn` ## Training and Loss 訓練與損失 - 訓練一個模型就是找出公式最好的 weight 和 bias ### Loss 損失 - 對預測不好的結果進行**懲罰** - 正確預測 - loss=0 ; 錯誤預測 - 依錯誤程度扣分D - Empirical Risk Minimization 經驗風險最小化: 監督式學習中,幫助找出 Loss 最小的 model 的方法 ![](https://i.imgur.com/dmUk4ki.png) ### Squared Loss 誤差差平方 - ![](https://i.imgur.com/3ugtZ0d.png) ### Mean Square Error (MSE) 平均誤差 - 其實就是每一個點和線的平均垂直距離差 ![](https://i.imgur.com/MGSJJht.png) - (x,y) - (feature,label) - D - 所有資料 - N - 資料個數 (D.count)