哈囉大家好~今天就讓我們來談談SVM的基礎概念!
「Kernel函數」出現於1990年代,此函數會使用到非線性的模型,其中大家最常聽到也最熟悉的莫過於「支撐向量機(support vector machine, SVM)」。SVM是一種監督是學習的方式,用統計風險最小化的原則來估計一個分類的超平面。在SVM中,在決策邊界的外面兩側會有所謂的「支持向量(SVM)」,向量之間的距離稱為邊距。以往如果我們用一條線去分出兩類,也就是分出決策邊界,兩個支持向量之間的差距小(因為就一條線),不一定能確實將兩類分開,用SVM可以找到邊距更寬的決策邊界,這也讓數據在分類時,可以表現得更好。簡單來說,就是找到一個決策邊界,讓兩類之間的邊界最大化,就可以將其精準的區分開來。
今天我們說完了Kernel領域中的SVM,明天我將帶大家繼續認識ML的隨機森林,那我們明天見囉~