iT邦幫忙

2025 iThome 鐵人賽

DAY 24
0

AI是黑盒子的原因

  • transparency(非開源)
  • interpretable(思維非透明)
  • explainable(沒有可解釋性)

如何讓模型explainable

找出影響輸出的關鍵輸入的方法與好處:

  • 加速模型、預估模型能力
  • gradient-based:判斷輸入的每個詞彙與輸出之間的關係
  • 分析attention weights

找出影響輸出的關鍵訓練資料:
分析embedding中存的資訊

  • probing: 訓練詞性分類器,偵測embedding對應的token的詞性是甚麼
  • LM embryology(語言模型胚胎學):在模型訓練過程中就使用probing
  • 將embedding投影至二維平面上,做可視化
  • 語言模型測謊器:將瞎掰資訊的embedding收集起來,並放入訓練過的測謊器中,判斷語言模型是否在瞎掰

使用prompt:

  • 直接問語言模型的每個輸出文字對他判斷的重要性
  • 問語言模型對自己的輸出的信心分數

上一篇
DAY 23
系列文
找工作期間不要讓自己太廢24
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言