--- title: Lab Meeting Minutes 2024/03/01 tags: lab_meeting --- > Outline > [TOC] --- # PERAL Lab Meeting - 時間:113 年 3 月 1 日 20:00 - 地點:線上 - 線上會議連結 : [Online](https://meet.google.com/zfi-zmnc-qfw) - 出席者:吳坤熹老師、謝萬霖、劉怡君(請假)、田蕙瑜(請假)、沈家正、梁宇騰、劉冠伶(請假)、繆亭霄、蘇翊荃、陳嘉璐、陳品妤、陳姿綾、陳姿澖 - 會議主題:[Machine Learning Algorithms - A Review](https://docs.google.com/presentation/d/1DSgf2abOpOgBIweZlsuVJ5a0LcBE5NlEVslxwTlbJKQ/edit?usp=sharing) - 主講者: 陳姿綾 - 主記: 繆亭霄 ## 會議內容 1. Introduction ![image](https://hackmd.io/_uploads/HJrDQSkpp.png) ![image](https://hackmd.io/_uploads/Hk2O7BkaT.png) 2. Why use Machine Learning ![image](https://hackmd.io/_uploads/BJh9QSypa.png) ![image](https://hackmd.io/_uploads/rJl3QBJ6p.png) ![image](https://hackmd.io/_uploads/ryc27SJT6.png) 3. Machine Learning type ![image](https://hackmd.io/_uploads/B1AbEBkpT.png) 4. Perceptron ![image](https://hackmd.io/_uploads/SkpQNSyaa.png) ![image](https://hackmd.io/_uploads/rJa4EH1pa.png) ![image](https://hackmd.io/_uploads/r1cr4Sy66.png) ![image](https://hackmd.io/_uploads/SkuLNHyTa.png) 5. Pocket Algorithm ![image](https://hackmd.io/_uploads/SJit4Skap.png) 6. SVM ![image](https://hackmd.io/_uploads/H1UjNB1TT.png) ![image](https://hackmd.io/_uploads/Hye3VrJp6.png) 7. Decision Tree ![image](https://hackmd.io/_uploads/SyqnNH1T6.png) ![image](https://hackmd.io/_uploads/BJ2T4HyTp.png) 8. Unsupervised - Kmeans ![image](https://hackmd.io/_uploads/SJTDBBJpa.png) ![image](https://hackmd.io/_uploads/B1I_HBkp6.png) 9. Summary ![image](https://hackmd.io/_uploads/BJzFBHypT.png) --- ### 建議&問題 1. [name=Louise] P.7 Test data 怎麼防止 overfitting? Ans: [name=] 投影片表達得不清楚,應該是檢查有沒有 overfitting,讓你可以決定後續的處理 2. [name=Louise] P.12 右邊圖片中右上角的 legend 的數字變動代表什麼? Ans: 若是當前 pocket 中的錯誤點大於新找到的 decision boundary 則更新 pocket,下面兩張圖是已經更新過的 3. [name=Yukino] P.10 ignored 代表什麼? Ans: 如果真的出現 score=T 的情況就不更新權重 4. [name=Yukino] P.7 Test data 能偵測到所有的 overfitting 嗎? Ans: 具體要看資料(? 5. [name=Ellie] 還是不太懂 test data 的意義 Ans: 類似考試題目,讓機器訓練後測試看看成果如何,考試題目不能出現在訓練資料中 6. [name=Ellie] P.8 如果不是 binary class 而是 multi class 怎麼辦? Ans: 可以用多個 perceptron 7. [name=Ryan] P.16 看不太懂數字怎麼計算的 Ans: 是用 gini impurity 計算每個 node 的亂度,以此決定用什麼條件當成 node 8. [name=Miller] P.16 Decision Tree 具體可以做什麼? Ans: 分類 9. [name=Miller] P.16 怎麼確定 Decision Tree 是準確的? Ans: 看 Confusion Matrix 10. [name=Cooper] 怎麼決定機器學習的特徵? Ans: 以自己目前的研究,就是把手上有的資料都當成特徵,再慢慢調整,看刪除哪些特徵會好一些 11. [name=August] P.10 Perceptron 只會做一個 epoch 嗎? Ans: 會做好幾個 12. [name=August] SVM 怎麼處理多分類問題? Ans: 這部分還要查一下 13. [name=Edgar] P.12 pocket algorithm 怎麼判斷找不到更好的線? Ans: 會有一個 maximum iteration value 14. [name=Edgar] P.14 怎麼選擇使用哪種 kernel function? Ans: RBF 比較適用在資料成球型分布 15. [name=Edgar] P.16 Decision Tree 怎麼決定特徵中連續值的分割點? Ans: 還要查一下資料 16. [name=Edgar] 每個 node 的條件是人為還是機器自己決定? Ans: 機器會根據餵進去的特徵決定 ## 待追蹤事項 1. [name=] ## 臨時動議 1. 還沒給下一輪題目的請在下週前給 2. 實驗室會議時間投票,由 Ashley 負責 --- 散會結束時間: 21:26