額外參考連結
ML的整個「訓練過程」,監督式學習(Supervised Learning)
Gradient Decent
對於所有屬於 train 資料集 D 的資料(x,y),去加總他們的 loss 再除以資料量得到的平均 loss
Loss (x,y,w) 意味著對於正確答案 y,以參數 w 去估算 data x 與 y 的差距
loss function 的最終目的是要最小化它
若想要自己繼續問下去,就點這個連結(前面兩個問題可以無視,比較沒問到點)