# ML 參考 ## 額外參考連結 - [ML的整個「訓練過程」,監督式學習(Supervised Learning)](https://www.wongwonggoods.com/all-posts/machine_learning/google_ml/gradient-descent/) ## Gradient Decent - ![](https://hackmd.io/_uploads/B1bf5KgxT.png =70%x) - 對於所有屬於 train 資料集 D 的資料(x,y),去加總他們的 loss 再除以資料量得到的平均 loss - Loss (x,y,w) 意味著對於正確答案 y,以參數 w 去估算 data x 與 y 的差距 - loss function 的最終目的是要最小化它 - ![](https://hackmd.io/_uploads/SJ01UqxeT.png) - ![](https://hackmd.io/_uploads/Hkw-IcggT.png) - ![](https://hackmd.io/_uploads/SJBmL5gxT.png) - ![](https://hackmd.io/_uploads/SJZNUceg6.png) - [若想要自己繼續問下去,就點這個連結(前面兩個問題可以無視,比較沒問到點)](https://chat.openai.com/share/b3c712d5-66d3-4514-aed2-36e2b96b2716)