SVM是一種監督式的學習方法,它的基礎的概念非常簡單,就是找到一個決策邊界(decision boundary)讓分類之間的邊界(margins)達到最大,將資...
簡單回顧在ML_Day10(Gradient Descent)有介紹什麼是SGD,就是只對一個example的loss做計算,求梯度最小值。也介紹什麼是Ada...
之前ML_Day11(支援向量機(Support Vector Machine, SVM))主要提到,SVM找到decision boundary讓margin...
簡單回顧在ML_Day13(SVM Kernel-1)有稍微介紹SVM kernel的主要觀念,簡單來說就是為了解決非線性問題,這一章節會做做一些複習並且做一...
簡單回顧介紹regularization之前,必須要了解什麼是overfitting。在之前的章節或多或少都有提到overfitting這號人物,那他為什麼那...
介紹之前我們在做二元分類的時候有介紹幾種模型,perceptron,linear classification。這邊我們要介紹另一種更好懂得模型,決策樹(De...
介紹Random Forest的基本原理是,結合多顆CART樹(CART樹為使用GINI算法的決策樹),並加入隨機分配的訓練資料,以大幅增進最終的運算結果。顧...
什麼是非監督式學習之前我們所介紹的幾種分類方法都監督式學習,而非監督式學習演算法只基於 輸入資料找出模式,無法正確找出結果。K-Means就是透過這個概念將資料...
為什麼說KNN是懶惰學習的分類算法?。之所以稱“懶惰”並不是由於此類算法看起來很簡單,而是在訓練模型過程中這類算法並不去學習一個判別式函數(損失函數)而是要記住...
簡單回顧關於兩者更詳細的介紹可以參考ML_Day18(K-Means)及ML_Day19(KNN(懶惰學習)),這邊做一下整理,歸納出兩者的差異性,不然光看兩...