第十五屆 佳作

ai-and-data
揭開黑箱模型:探索可解釋人工智慧
10程式中

系列文章

DAY 21

[Day 21] Propagation-Based:探索反向傳播法的可解釋性

今天所要談 Propagation-Based 方法在 CNN 中的作用是透過計算梯度、反向傳播或不同層的特徵來量化每個像素或特徵對預測結果的影響。 從昨天的...

DAY 22

[Day 22] CAM-Based:如何解釋卷積神經網路

CAM(Class Activation Mapping)是一種用於解釋卷積神經網路(CNN)模型在圖像分類任務中的預測的技術。它的目的是生成一個視覺化的熱圖,...

DAY 23

[Day 23] Attention-Based:使用注意力機制解釋CNN模型

近年來注意力機制(Attention Mechanism)已經成為深度學習和神經網路領域的一個重要研究。它不僅能夠改善模型的性能,還可以增強模型的解釋性。201...

DAY 24

[Day 24] LSTM的可解釋性:從時序資料解析人體姿態預測

在這個系列中,我們已經介紹了深度神經網路中的DNN(深度神經網路)和CNN(卷積神經網路),以及它們如何透過不同的方法進行模型解釋。今天,我們將深入探討如何使用...

DAY 25

[Day 25] XAI在影像處理中的瑕疵檢測:解釋卷積神經網路的運作

隨著鐵人賽進入尾聲,相信各位已經對可解釋人工智慧(XAI)領域有了一些初步的了解。在接下來的幾天中,我想透過一些實際的例子來介紹 XAI 的實際應用,藉此展示如...

DAY 26

[Day 26] XAI在表格型資料的應用:解析智慧工廠中的鋼材缺陷

在當今的工業領域中,智慧製造、碳中和以及數位雙生等議題受到廣泛關注。其中機器學習技術已經開始發揮關鍵作用,特別是在虛擬量測和異常檢測方面。在今天的內容中將帶各位...

DAY 27

[Day 27] XAI在NLP中的應用:以情感分析解釋語言模型

近年來自然語言處理(NLP)領域取得了巨大的進展,主要歸功於大型語言模型(LLM)的崛起。這些模型,如 GPT、LLaMA 和 BLOOM 等,已經在多個 NL...

DAY 28

[Day 28] XAI如何影響人類對技術的信任和接受程度?

在科技迅速進步的時代,人工智慧已經深深地融入了我們的生活,從智慧製造、智慧醫療、智慧服務到智慧交通無所不在。然而這種深度的整合也伴隨著對於技術的信任和接受程度的...

DAY 29

[Day 29] 對抗樣本的挑戰:如何利用XAI檢測模型的弱點?

在本系列文章中,我們已經介紹了機器學習領域中用於解釋複雜的黑盒模型的各種方法,想必各位對這些技術有了一定的了解。儘管我們可以透過可解釋性技術來證明模型的能力,但...

DAY 30

[Day30] XAI未來發展方向:向更可靠的機器學習模型邁進

機器就像人類一樣,並非百分之百地完美。就如同人類有時會犯錯,機器在預測或決策中也可能犯錯。當我們面對預測錯誤時,如果能夠透過 XAI 分析出合理的原因,可以改善...