iT邦幫忙

2021 iThome 鐵人賽

DAY 7
0
AI & Data

我比機器更需要學習系列 第 7

Day7 最近鄰居法(K-Nearest Neighbors)

  • 分享至 

  • xImage
  •  

最近鄰居法是什麼?

簡稱KNN,講人話就是在現有歷史資料的基礎上,對於想預測的新資料,直接比對特徵最接近的K筆歷史資料,看他們分別屬於哪種分類,再以投票的方式決定新資料的所屬分類。

淺談最近鄰居法

最近鄰居法是監督式學習中的分類演算法,能用一句話代表大概就是物以類聚了吧!舉個例子來說,假設你的鄰居朋友裡面,十個有八個都是單身狗,那你也很有可能也是單身狗,差不多是這個概念,再來說明此演算法的步驟:

(一)計算距離
(二)進行投票
(三)決定類別

計算距離的方式有三種:
(一)歐基里德距離 (Euclidean distance)
https://chart.googleapis.com/chart?cht=tx&chl=D%3D%20%5Csqrt%7B(x_1-y_1)%5E2%2B(x_2-y_2)%5E2%2B......%2B(x_n-y_n)%5E2%7D
(二)曼哈頓距離 (Manhattan distance)
https://chart.googleapis.com/chart?cht=tx&chl=D%3D%7Cx_1-y_1%7C%2B%7Cx_2-y_2%7C%2B......%2B%7Cx_n-y_n%7C
(三)明氏距離 (Minkowski distance)
https://chart.googleapis.com/chart?cht=tx&chl=D%3D(%5Csum_%7Bi%3D1%7D%5E%7Bn%7D%7Cx_i-y_i%7C%5Ep)%5E%7B%5Cfrac%7B1%7D%7Bp%7D%7D
KNN的優點:

1.易理解
2.用途廣

KNN的缺點:

1.計算量大
2.樣本數不平均時,易產生誤差

上一篇
Day6 梯度提升樹(Gradient Boosting Decision Tree)
下一篇
Day8 單純貝氏分類器 (Naive Bayes Classifier)
系列文
我比機器更需要學習23
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言