rabbit

@rabbit1753

Joined on Oct 31, 2018

  • 額外參考連結 ML的整個「訓練過程」,監督式學習(Supervised Learning) Gradient Decent ![](https://hackmd.io/_uploads/B1bf5KgxT.png =70%x)對於所有屬於 train 資料集 D 的資料(x,y),去加總他們的 loss 再除以資料量得到的平均 loss Loss (x,y,w) 意味著對於正確答案 y,以參數 w 去估算 data x 與 y 的差距 loss function 的最終目的是要最小化它 若想要自己繼續問下去,就點這個連結(前面兩個問題可以無視,比較沒問到點)
     Like  Bookmark