# Mechine Learing 超入門 --- # 人工智慧 ---- ## 人工智慧是什麼? ---- 用人工的方式讓機器表現的好像有智慧一樣 ---- ## 如何讓機器表現的像是有智慧一樣? ---- - ## 先天 - ## 後天 ---- - ## 近世進士盡是近視 - ## 會考會考會考的 - ## 你真聰明 --- # 機器學習 ---- ## 讓機器自己從「 資料 」中找出規律 ---- ## training a model --- # model ---- ## function ---- ## 找出一個function,給它相對應的輸入,然後希望它能夠幫我們預測出正確的結果 ---- ## $f(x)=wx+b$ ---- ## 神經網路 ---- ![](https://i.imgur.com/ZlnN6aW.png) ---- ![](https://i.imgur.com/o8NRgdX.png) ---- ![](https://i.imgur.com/L7Dj5t9.png) ---- ## $y=a(wx+b)$ ---- - $y$ 輸出 - $a$ 激勵函數( activation function ) - $w$ 權重向量 - $x$ 輸入向量 - $b$ 偏置( bias ) ---- ## 深度學習 ---- ### 就...比較深 ---- - #### 人工智慧 - #### 機器學習 - #### 神經網路 - #### 深度學習 - #### training - #### model --- # training ---- 1. 決定模型長怎麼樣 2. 把資料丟進去 3. 求出模型輸出與正確答案的距離 4. 調整參數權重 5. 不斷重複2到4的步驟 ---- ## 不斷調整function參數的權重,直到能夠輸出對應的結果為止 ---- ## random ? --- # 數學我要進來囉! ---- ## loss function ---- 評估模型ouput與target的距離 ---- - $y$ target - $\hat{y}$ output 、 predict ---- - RMSE - MAE - cross entropy https://chih-sheng-huang821.medium.com/%E6%A9%9F%E5%99%A8-%E6%B7%B1%E5%BA%A6%E5%AD%B8%E7%BF%92-%E5%9F%BA%E7%A4%8E%E4%BB%8B%E7%B4%B9-%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8-loss-function-2dcac5ebb6cb ---- ## 嘗試找到loss function的最低點 ---- ### gradient decent( 梯度下降 ) ---- 斜率、梯度 ---- ### backpropagation( 反向傳播 ) ---- ## optimizer ---- ## lr ---- - SGD - Adagrad - Momentun - RMSProp - Adam https://chih-sheng-huang821.medium.com/%E6%A9%9F%E5%99%A8%E5%AD%B8%E7%BF%92-%E5%9F%BA%E7%A4%8E%E6%95%B8%E5%AD%B8-%E4%B8%89-%E6%A2%AF%E5%BA%A6%E6%9C%80%E4%BD%B3%E8%A7%A3%E7%9B%B8%E9%97%9C%E7%AE%97%E6%B3%95-gradient-descent-optimization-algorithms-b61ed1478bd7 ---- ## activation function ---- - sigmoid - relue - softmax ---- https://drive.google.com/drive/u/1/folders/1raHo2T2ksqP8Aqu3KrHuxEhuYp05ITno https://www.youtube.com/channel/UC2ggjtuuWvxrHHHiaDH1dlQ