# ML 參考
## 額外參考連結
- [ML的整個「訓練過程」,監督式學習(Supervised Learning)](https://www.wongwonggoods.com/all-posts/machine_learning/google_ml/gradient-descent/)
## Gradient Decent
- 
- 對於所有屬於 train 資料集 D 的資料(x,y),去加總他們的 loss 再除以資料量得到的平均 loss
- Loss (x,y,w) 意味著對於正確答案 y,以參數 w 去估算 data x 與 y 的差距
- loss function 的最終目的是要最小化它
- 
- 
- 
- 
- [若想要自己繼續問下去,就點這個連結(前面兩個問題可以無視,比較沒問到點)](https://chat.openai.com/share/b3c712d5-66d3-4514-aed2-36e2b96b2716)