--- title: 'Book_Statistic2ML_Chapter6' disqus: hackmd --- [讀者天地 - 機器學習的統計基礎](https://hackmd.io/@TommyHuang/book_statistics2ML) > [name=黃志勝 Chih-Sheng (Tommy) Huang] * [作者Medium Blog](https://chih-sheng-huang821.medium.com/) 本書「機器學習的統計基礎」出版社為旗標科技股份有限公司 **此份筆記為[讀者天地 - 機器學習的統計基礎](https://hackmd.io/@TommyHuang/book_statistics2ML)用來作為書本內容修正紀錄** --- [TOC] # 第 6 章 機器與深度學習常用到的基礎理論 ## 6.1 機器、深度學習與統計學的關係 ### 6.1.1 統計學與機器學習(深度學習)的差異 ### 6.1.2 機器學習和深度學習的差異 ## 6.2 監督式學習與非監督式學習 ### 6.2.1 監督式學習(Supervised Learning) ### 6.2.2 非監督式學習(Unsupervised Learning) ## 6.3 最大概似估計 ### 6.3.1 概似函數(likelihood function) 的定義 ### 6.3.2 範例:伯努利抽紅白球的機率 ### 6.3.3 範例:常態分布找出平均值與變異數 ## 6.4 貝氏法則理論與最大後驗機率 ### 6.4.1 貝氏法則理論 ### 6.4.2 最大後驗機率法 Page 6-11: ![](https://i.imgur.com/T4s52wJ.png) ### 6.4.3 最大後驗機率法範例 ## 6.5 常用到的距離和相似度計算方式 Page 6-15 ![](https://i.imgur.com/5CoHdFS.png) ### 6.5.1 曼哈頓距離(Manhattan Distance) ### 6.5.2 歐幾里得距離(Euclidean Distance),歐氏距離 ### 6.5.3 明可夫斯基距離(Minkowski distance) ### 6.5.4 餘弦相似度(Cosine similarity) ### 6.5.5 馬氏距離(Mahalanobis Distance) ### 6.5.6 雅卡爾相似度係數(Jaccard similarity coefficient) ## 6.6 損失函數 ### 6.6.1 迴歸常用的損失函數:均方誤差、平均絕對值誤差 ### 6.6.2 迴歸常用的損失函數:Huber 損失函數 ### 6.6.3 分類常用的損失函數:交叉熵 ### 6.6.4 交叉熵與相對熵、最大概似估計的關係 Page 6-53 ![](https://i.imgur.com/Xaal1lh.png) ###### tags: `Book_Statistic2ML`