# 2.9 Notes - <font color = "snake">near miss</font>:一個很像 positive example 的 negative example > 在前面 2.1 中有提到,我們有包含 most specific 的 hypotheses 的 $S$-set,和包含 most general 的 hypotheses 的 $G$-set,near miss 就是會落在 $S$ 和 $G$ 之間的 instance,也就是真正會影響我們的邊界在哪的 instance。 > > $\rightarrow$ 正因如此, near miss 比起一般的 positive / negative examples 對 learning 來說更有用。越接近邊界的 instances 才會是真正定義邊界的 instances,如果是在中間被很多其他有相同 label 的 instances 包圍的 instance,被拿掉對邊界也不影響。 - <font color = "snake">active learning</font>:learning algorithm 可以自己產生 instances,再去請人來 label 這些 instances,而不是被動地被給予。 - 一個問題是 <font color = "snake">convex</font> 的,也就是說對於某個 learning task 對應的 optimization problem,存在單一的 global minimum / maximum solution。