iT邦幫忙

2021 iThome 鐵人賽

DAY 11
0
AI & Data

Python 機器學習實驗室 ʘ ͜ʖ ʘ系列 第 11

分類模型哪個好?confusion matrix/sensitivity/ specificity

今天來整理一下以前的筆記,聊聊比較分類模型的評判依據:confusion matrix.

下圖是常見的confusion matrix的圖:
https://ithelp.ithome.com.tw/upload/images/20210925/20142004USXB9gbxRG.png

用個例子來解釋上圖:
假設我們今天根據血壓身高體重等資料預測一群人是否有心臟病
TP(true positive):實際有心臟病且模型預測正確(有)
TN(true negative):實際沒有心臟病且模型預測正確(沒有)
FP(false positive):實際沒有心臟病但模型預測說有,又稱 type1 error
FN(false negative):實際有心臟病但模型說沒有,又稱 type2 error

所謂的true/false表達的是模型預測是否正確,而positive/negative會根據假設對應不同的情況,我們都希望模型預測高,所以會希望TP/FP的數量高,當純比較數字會有點難以比較不同的模型,所以之後就衍生出了不同的比率,常見的有:

  • accuracy: (TP+TN)/(TP + TN + FP + FN)
  • sensitivity(recall rate): TP/(TP + FN) 所有positive中模型預測正確比率
  • specificity: TN/(FP + TN) 所有negative中模型預測正確比率
  • precision: TP/(TP + FP) 模型說positive的數量中有多少真正positive
  • F1 score: 2 * (precision * sensitivity) / (precision + sensitivity)

根據不同的情境會使用不同的比率來比較,如果今天識別“有心臟病”的病患是主要目標,那我們就可以選擇recall rate當評判標準,反之若識別“沒有心臟病”的病患是主要目標的話,就可以使用specificity。


上一篇
Gradient Descent
下一篇
分類模型哪個好?ROC/ AUC
系列文
Python 機器學習實驗室 ʘ ͜ʖ ʘ30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言