本系列將從 XAI 的基礎知識出發,深入探討可解釋人工智慧在機器學習和深度學習中的應用、案例和挑戰,以及未來發展方向。希望透過這個系列,幫助讀者更好地理解和應用可解釋人工智慧技術,促進可信、透明、負責任的人工智慧發展。
Partial Dependence Plot(PDP)是要觀察每一個自變數的變化是如何影響預測表現,它可以快速地分析自變數與目標變數之間的關係。而昨天所提的...
LIME 的全名是 Local Interpretable Model-agnostic Explanations ,其目的是可以分析模型對於某筆資料為何做出特...
今天我們將深入探討 LIME 的實作細節,包括如何選擇解釋性模型和解釋特徵,以及如何選擇鄰域大小來生成解釋數據。 若想了解 LIME 的核心原理可以參考前一篇文...
Shapley values 簡介 Shapley values 最早是由經濟學家 Lloyd Shapley 所提出,用於評估參與合作博弈的每個玩家對於勝利的...
昨天已經瞭解了 SHAP 套件背後的核心技術。SHAP 提供多種解釋工具,可應用於不同類型的模型: KernelExplainer(Kernel SHAP):...
深度神經網路(DNN)以其線性和非線性的複雜轉換而聞名,因為它涵蓋了許多隱藏層。因此即使給定一個訓練有素並能夠良好分類的 DNN,模型內部的推論過程仍然是個未知...
Feature Attribution Feature Attribution(特徵歸因)是機器學習領域中的一個重要概念,它用於解釋模型的預測結果。當我們訓練機...
在當今的深度學習領域中,卷積神經網路(CNN)已經成為許多電腦視覺任務的首選模型,例如圖像分類、物體偵測、語意分割、動作偵測等,這些重大突破都歸功於卷積神經網路...
如果想要了解一張圖片中哪些區域對於 CNN 神經網路的判斷結果具有影響力,可以參考基於擾動的 Perturbation-Based 方法。它有很多不同種的變形,...
在深度學習中梯度訊息扮演著關鍵的角色,尤其在神經網路的訓練過程中。梯度代表了函數相對於參數的變化率,它告訴我們如何調整神經網路的權重和參數,以最小化或最大化一個...