今天我們要來介紹一下Explanable AI是做甚麼用的。
依照單字的翻譯,就是可解釋的AI,那麼我們根據字義就可以猜出這是做什麼用的,簡單來說就是要幫助我們了解AI到底在想甚麼,了解為什麼AI會這麼判斷、這麼認為。
這樣我們才能知道它們的判斷依據,方便我們改善模型,例如說有分辨人臉的系統,結果他只看眼睛就分辨,那麼我們就可以知道,這個模型的大局觀不夠。
知道AI是怎麼判斷的,我們就可以了解它們的判斷是否合理。
例如感冒的病人的抵抗力算出來比健康的人高之類的,這是不合理的。
了解AI怎麼想之後,我們可以從中學習經驗,例如使用AI玩星海爭霸後,我們就可以學習它們的應對策略,以及如何的控制遊戲裡面的作戰單位。
也或者為了讓AI符合我們的現實法規,我們必須知道它們在搞甚麼東西。例如歐盟制定的GDPR或是人工智慧與數位經濟法案。
假設我們想知道CNN對圖片的哪邊最看重,那麼我們可以把圖片塗黑一個小正方形,再讓CNN辨識,如果辨識錯誤,那就代表被蓋住的這邊是CNN辨識較重要的地方之一。
我們可以利用像是Lime、LRP、或是CAM、Grad-Cam這種技術。
今天我們了解了Explanable AI是什麼,以及簡單的介紹一些方法。
Explainable AI 是什麼?為什麼 AI 下判斷要可以解釋?