iT邦幫忙

2025 iThome 鐵人賽

DAY 4
0
生成式 AI

生成式 AI 30 天觀念導讀:不寫程式也看懂的實戰思維系列 第 4

Day 4|Attention 直覺版:它怎麼在長文中「抓重點」?

  • 分享至 

  • xImage
  •  

為什麼需要理解?
這是 Transformer 厲害的關鍵。不懂它,就很容易把上下文塞爆。

白話定義

Attention=對關鍵位置加權,不是逐字平均掃

長距離依賴:能把遙遠的前後文關聯起來

多頭注意力:同時用不同角度看同一句話(語法/語義/情緒等)

常見情境

長報告摘要、跨段落呼應、條列與主旨抽取

常見誤解

「Attention=理解」→ 它是關聯加權,不是人類語義

「上下文越長越好」→ 成本暴增、還可能沖淡重點

如何判斷(觀念)

想像你自己畫螢光筆:先選關鍵、後補證據

上下文是資源,要「精準投放」而不是盲塞

小結
Attention 教會模型「怎麼看」。我們要學的是「給它看什麼」。


上一篇
Day 3|資料與 Token:模型的世界觀從哪來?
下一篇
Day 5|參數量與 Scaling:大就一定好嗎?
系列文
生成式 AI 30 天觀念導讀:不寫程式也看懂的實戰思維10
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言