iT邦幫忙

鐵人檔案

2023 iThome 鐵人賽
回列表
AI & Data

揭開黑箱模型:探索可解釋人工智慧 系列

本系列將從 XAI 的基礎知識出發,深入探討可解釋人工智慧在機器學習和深度學習中的應用、案例和挑戰,以及未來發展方向。希望透過這個系列,幫助讀者更好地理解和應用可解釋人工智慧技術,促進可信、透明、負責任的人工智慧發展。

鐵人鍊成 | 共 30 篇文章 | 20 人訂閱 訂閱系列文 RSS系列文
DAY 1

[Day 1] 揭開模型的神秘面紗:為何XAI對機器學習如此重要?

人工智慧的發展已經進入了一個新的階段,作為AI的重要分支「機器學習」,已經被廣泛應用於各個領域,例如語音識別、圖像分類、自然語言處理......等。然而隨著機器...

2023-09-14 ‧ 由 10程式中 分享
DAY 2

[Day 2] 從黑盒到透明化:XAI技術的發展之路

近年來人工智慧技術發展迅速,深度學習等技術的出現和應用已經帶來了很多驚人的成果,尤其是 ChatGPT 的出現更讓人們驚嘆不已。然而這些模型的黑箱特性一直是人工...

2023-09-15 ‧ 由 10程式中 分享
DAY 3

[Day 3] 機器學習中的可解釋性指標

「可解釋性指標」是 XAI 中用來衡量模型可解釋性的評估標準。它們是用來確定模型如何解釋其預測的方式,以及如何在給定輸入後生成可解釋的結果。可解釋性指標可以根據...

2023-09-16 ‧ 由 10程式中 分享
DAY 4

[Day 4] LIME vs. SHAP:哪種XAI解釋方法更適合你?

LIME 和 SHAP 都是機器學習中的解釋性方法,它們的共同點是都適用於模型無關性(Model Agnostic),並透過資料來解釋模型的預測結果。如果不想深...

2023-09-17 ‧ 由 10程式中 分享
DAY 5

[Day 5] 淺談XAI與傳統機器學習的區別

機器學習是一種透過對大量數據進行訓練和不斷優化演算法的方法,目的是提高預測準確性和決策可靠性。透過處理龐大的數據集,機器學習模型能夠自動學習並擬合出數據中的模式...

2023-09-18 ‧ 由 10程式中 分享
DAY 6

[Day 6] 非監督學習也能做到可解釋性?探索XAI在非監督學習中的應用

由於非監督學習模型通常沒有像監督學習中的標籤可使用,因此非監督學習模型的可解釋性通常是透過資料視覺化和數據分析來實現。以下為各位整理非監督學習中可解釋性的一些例...

2023-09-19 ‧ 由 10程式中 分享
DAY 7

[Day 7] KNN與XAI:從鄰居中找出模型的決策邏輯

KNN 是一種監督式學習算法,它可以用於分類和迴歸問題。在分類問題中,KNN 透過找到最近的 k 個鄰居取多數決來預測一個新樣本的類別。在迴歸問題中,KNN 則...

2023-09-20 ‧ 由 10程式中 分享
DAY 8

[Day 8] 解釋線性模型:探索線性迴歸和邏輯迴歸的可解釋性

線性迴歸模型 線性迴歸是一種統計學方法,用於建立自變數(x)和應變數(y)之間的線性關係模型。線性迴歸假設應變數是由一個或多個自變數線性組合而成的,且自變數之間...

2023-09-21 ‧ 由 10程式中 分享
DAY 9

[Day 9] 基於樹狀結構的XAI方法:決策樹的可解釋性

決策樹 決策樹是一種監督式學習演算法,用於解決分類或迴歸問題。該方法透過對訓練集資料的分析來建構一棵樹狀結構的模型,其中每個內部節點都代表一個特徵,每個葉子節點...

2023-09-22 ‧ 由 10程式中 分享
DAY 10

[Day 10] Permutation Importance:從特徵重要性角度解釋整個模型行為

全局模型解釋是試圖理解整個模型的行為,而不僅僅是對單個預測進行解釋。Permutation importance 方法就是一種廣泛用於評估機器學習模型特徵重要性...

2023-09-23 ‧ 由 10程式中 分享