Content Slides & Videos Quadratic Hypothesis 在先前的章節中,學習的機器學習模型都為線性模型,即假設空間都為線性的(2D平面中為一條直線,3D空間為一個平面),使用的得分為線性得分(linear scores)$s=w^Tx$。其中 $x$ 為特徵值向量,$w$ 為權重。 Linear Hypothesis 線性模型的優點是理論上可以使用 VC 限制來約束約束(假設是非線性的各種曲線或超平面,則每種假設都可以完全二分,即有 $2^N$ 種二分類。),這保證了 $E_{in} \approx E_{out}$(VC-Dimension比較小)。但對於線性不可分(non-linear separable)的問題(如下圖),$E_{in}$ 很大,從而導致 $E_{out}$ 也很大,導致分類結果不理想。 linear 好處:VC dimension 是有限的,所以 $E_{in}$ 和 $E_{out}$ 通常很接近
10/17/2023Content Slides & Videos 參考筆記: 林軒田教授機器學習基石 第五講學習筆記 Recap and Preview learning的兩個核心問題 能不能讓 $E_{out}(g)$ 和 $E_{in}(g)$ 非常接近? 能不能讓 $E_{in}(g)$ 非常小?
9/16/2023Content Slides & Videos Large-Margin Separating Hyperplane Which Line Is Best? 就我們之前推導的 VC bound 來看,這三條線好像沒什麼差? Why Rightmost Hyperplane
6/26/2023Content [TOC] Slides & Videos Deep Neural Network Physical Interpretation of NNet Revisited 每個 layer 就是在從 data 當中 extract pattern Shallow versus Deep Neural Networks
9/26/2022or
By clicking below, you agree to our terms of service.
New to HackMD? Sign up