Model Performance Evaluation 就是在訓練完一個模型時來評估模型的好壞,一樣舉 Binary Classification Model 為例,在我們使用像是 XGBoost 訓練完之後,每一個資料我們都可以得到一個 Inference Score,這個 Score 是一個介於 0 ~ 1 間的浮點數,常解讀是 Probability of Positive,以 Account Takeover Detection 為例,也就是用戶這次的提款為非本人操作 (有異常) 的機率
將所有有 Label 的資料集分成 Training, Validation, Testing,並在計算出以下指標
在風控領域中,由於模型很常有高度時效性,為了確保模型的有效性,通常還會幫 Testing Dataset 做更近一步的區分
高度時效性我們可以用另一個角度來想,每一陣子駭客都會流行一些常用的手法,當這個手法被偵測到之後,駭客們就會逐漸發現這樣的手法無效,轉而去發掘新的方式,這樣新的方式從我們原本特徵的維度來看,很嘗試"沒有學習過的"Pattern,因此時效性在這類情境中格外重要
OOT測試集是指一個與訓練集時間段不重疊的數據集,通常用來模擬模型在未來會遇到的情況。舉例來說,如果訓練集使用的數據是從2022年1月到2023年5月的,那麼OOT測試集可能會使用2023年5月後的數據。
通常,OOT測試過程與使用普通測試集的過程相似,舉上面資料為例,原本的測試及會依據月份被分割成三個 Dataset
oot_2023_6
oot_2023_7
oot_2023_8
一個好的模型訓練結果報告應該至少要有以上的資訊,但是這些資訊存在兩個問題
明天會繼續介紹一些常見的方法來衡量模型的迭代