# Gradient Descent :::info ## 複習  ::: :::info ## 方法一:調整learning rate - 可以作圖觀察rate的合適度 -  - 自動調整 - 隨著參數的更新越來越小(開高走低) - 每個參數都給不同的learning rate - Adagrad: 每一個參數的learning rate,都去除上前面微分值的平方平均數(root mean square)。 缺點:越來越慢。 :::spoiler - 公式:  - 範例:  - 推論:   ::: ::: :::info ## 方法二 : Stochastic Gradient descent  ::: :::info ## 方法三 : Feature Scaling - 作法  - 理論 較大的參數對輸出的影響越大,通過正規化解決。  ::: --- ##### 備註: [好心人筆記](https://sakura-gh.github.io/ML-notes/ML-notes-html/5_Gradient-Descent.html) [好心人筆記2](https://github.com/Sakura-gh/ML-notes) ###### tags: `ML2020`
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up