# Mechine Learing 超入門
---
# 人工智慧
----
## 人工智慧是什麼?
----
用人工的方式讓機器表現的好像有智慧一樣
----
## 如何讓機器表現的像是有智慧一樣?
----
- ## 先天
- ## 後天
----
- ## 近世進士盡是近視
- ## 會考會考會考的
- ## 你真聰明
---
# 機器學習
----
## 讓機器自己從「 資料 」中找出規律
----
## training a model
---
# model
----
## function
----
## 找出一個function,給它相對應的輸入,然後希望它能夠幫我們預測出正確的結果
----
## $f(x)=wx+b$
----
## 神經網路
----

----

----

----
## $y=a(wx+b)$
----
- $y$ 輸出
- $a$ 激勵函數( activation function )
- $w$ 權重向量
- $x$ 輸入向量
- $b$ 偏置( bias )
----
## 深度學習
----
### 就...比較深
----
- #### 人工智慧
- #### 機器學習
- #### 神經網路
- #### 深度學習
- #### training
- #### model
---
# training
----
1. 決定模型長怎麼樣
2. 把資料丟進去
3. 求出模型輸出與正確答案的距離
4. 調整參數權重
5. 不斷重複2到4的步驟
----
## 不斷調整function參數的權重,直到能夠輸出對應的結果為止
----
## random ?
---
# 數學我要進來囉!
----
## loss function
----
評估模型ouput與target的距離
----
- $y$ target
- $\hat{y}$ output 、 predict
----
- RMSE
- MAE
- cross entropy
https://chih-sheng-huang821.medium.com/%E6%A9%9F%E5%99%A8-%E6%B7%B1%E5%BA%A6%E5%AD%B8%E7%BF%92-%E5%9F%BA%E7%A4%8E%E4%BB%8B%E7%B4%B9-%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8-loss-function-2dcac5ebb6cb
----
## 嘗試找到loss function的最低點
----
### gradient decent( 梯度下降 )
----
斜率、梯度
----
### backpropagation( 反向傳播 )
----
## optimizer
----
## lr
----
- SGD
- Adagrad
- Momentun
- RMSProp
- Adam
https://chih-sheng-huang821.medium.com/%E6%A9%9F%E5%99%A8%E5%AD%B8%E7%BF%92-%E5%9F%BA%E7%A4%8E%E6%95%B8%E5%AD%B8-%E4%B8%89-%E6%A2%AF%E5%BA%A6%E6%9C%80%E4%BD%B3%E8%A7%A3%E7%9B%B8%E9%97%9C%E7%AE%97%E6%B3%95-gradient-descent-optimization-algorithms-b61ed1478bd7
----
## activation function
----
- sigmoid
- relue
- softmax
----
https://drive.google.com/drive/u/1/folders/1raHo2T2ksqP8Aqu3KrHuxEhuYp05ITno
https://www.youtube.com/channel/UC2ggjtuuWvxrHHHiaDH1dlQ