AI 黑箱作業已經被詬病許久,因為 AI 類神經網絡的複雜性不似機械學習的樹狀結構、線性結構容易理解中間判斷過程,但隨著可解釋 AI 技術的出現,理解模型可以協助用於生產的機械學習系統有更佳的解釋能力。
在 2016 年有研究以 LIME 技術得知,訓練出的狼與哈士奇分類器,其實只是判別背景為雪地與否(簡報、論文),李弘毅老師也做了數碼寶貝、寶可夢分類研究,經解釋原來是*.png
對透明背景處理為黑色,與*.jpg
圖片的白色背景的差異被 AI 作為判斷依據(簡報)。
在用於生產的機械學習情境,可解釋的 AI 用來做為更深刻的討論用途,XAI 主要希望是
解釋黑箱來鑑別與修正模型的問題才是 XAI 旨趣,特別是公平與偏見問題,存在性別、種族等偏見問題的 AI 是不允許上線的,已上線的 AI 服務在接收新資料持續訓練的過程被帶壞了,甚至面對針對 AI 服務的惡意攻擊,多用點方法解釋黑箱就有必要。
SHAP(SHApley Additive exPlanations)
可以解釋模型特徵之間影響力的模型,主要結合博弈理論與局部解釋力,也可以視覺化呈現解釋成果。
可以解釋的工具包含TreeExplainer
、DeepExplainer
、GradientExplainer
、KernelExplainer
,對應不同模型的解釋器。
以下圖片紅色表示正相關的力道、藍色表示負相關的力道,各特徵互有拉鋸影響力,可以看出何為關鍵特徵及其影響程度。
影像的分類重要性也可以視覺化得知AI主要判斷依據,進而解釋模型。
- 圖片來源: SHAP
以下為使用 SHAP 將Fashion MNIST資料集,以 CNN 訓練完的各特徵解釋對照結果。
該模型對這 10 個類別分類,對角線紅色居多,表示能使其正確預測的主要因素,您可以仔細關注某些分類,譬如第 5 個分類 Coat 與第 3 分類 Pullover、 第 7 分類Shirt 有些形似,紅色、藍色的點都有出現,似乎也有理由讓模型判別為 Pullover 或 Shirt 。