第十五屆 佳作

ai-and-data
揭開黑箱模型:探索可解釋人工智慧
10程式中

系列文章

DAY 11

[Day 11] Partial Dependence Plot:探索特徵對預測值的影響

Partial Dependence Plot(PDP)是要觀察每一個自變數的變化是如何影響預測表現,它可以快速地分析自變數與目標變數之間的關係。而昨天所提的...

DAY 12

[Day 12] LIME理論:如何用局部線性近似解釋黑箱模型

LIME 的全名是 Local Interpretable Model-agnostic Explanations ,其目的是可以分析模型對於某筆資料為何做出特...

DAY 13

[Day 13] LIME實作:實戰演練LIME解釋方法

今天我們將深入探討 LIME 的實作細節,包括如何選擇解釋性模型和解釋特徵,以及如何選擇鄰域大小來生成解釋數據。 若想了解 LIME 的核心原理可以參考前一篇文...

DAY 14

[Day 14] SHAP理論:解析SHAP解釋方法的核心

Shapley values 簡介 Shapley values 最早是由經濟學家 Lloyd Shapley 所提出,用於評估參與合作博弈的每個玩家對於勝利的...

DAY 15

[Day 15] SHAP實作:實戰演練SHAP解釋方法

昨天已經瞭解了 SHAP 套件背後的核心技術。SHAP 提供多種解釋工具,可應用於不同類型的模型: KernelExplainer(Kernel SHAP):...

DAY 16

[Day 16] 神經網路的可解釋性:如何理解深度學習中的黑箱模型?

深度神經網路(DNN)以其線性和非線性的複雜轉換而聞名,因為它涵蓋了許多隱藏層。因此即使給定一個訓練有素並能夠良好分類的 DNN,模型內部的推論過程仍然是個未知...

DAY 17

[Day 17] 解析深度神經網路:使用Deep SHAP進行模型解釋

Feature Attribution Feature Attribution(特徵歸因)是機器學習領域中的一個重要概念,它用於解釋模型的預測結果。當我們訓練機...

DAY 18

[Day 18] CNN:卷積深度神經網路的解釋方法

在當今的深度學習領域中,卷積神經網路(CNN)已經成為許多電腦視覺任務的首選模型,例如圖像分類、物體偵測、語意分割、動作偵測等,這些重大突破都歸功於卷積神經網路...

DAY 19

[Day 19] Perturbation-Based:如何用擾動方法解釋神經網路

如果想要了解一張圖片中哪些區域對於 CNN 神經網路的判斷結果具有影響力,可以參考基於擾動的 Perturbation-Based 方法。它有很多不同種的變形,...

DAY 20

[Day 20] Gradient-Based:利用梯度訊息解釋神經網路

在深度學習中梯度訊息扮演著關鍵的角色,尤其在神經網路的訓練過程中。梯度代表了函數相對於參數的變化率,它告訴我們如何調整神經網路的權重和參數,以最小化或最大化一個...