iT邦幫忙

2024 iThome 鐵人賽

DAY 4
0
生成式 AI

Microsoft Copilot與它的小夥伴們系列 第 4

Day04 - LLM的本質

  • 分享至 

  • xImage
  •  

https://ithelp.ithome.com.tw/upload/images/20240913/20103333hJBffmBObh.png

這篇再來聊聊LLM的本質, 在Day02有提到LLM透過Transformer用大量的文字訓練出來的, Transformer會在向量的空間中找出相似的字或詞, 這個聽起來很抽象, 簡單的來說收集網路大量的文字資料如下
https://ithelp.ithome.com.tw/upload/images/20240913/20103333wPcMmQjBx2.png

而LLM推論的過程如下
Round1: 世界最南的城市是?
Round2: 世界最南的城市是? 烏
Round3: 世界最南的城市是? 烏蘇
Round4: 世界最南的城市是? 烏蘇懷
Round5: 世界最南的城市是? 烏蘇懷亞

所以常有人說, LLM的本質就是文字接龍, 而且每一回合都會將前一回合的文字加上這一回合的文字再傳回去給LLM做推論, 這也是所謂的上下文(Context), 這個對LLM來說非常重要, 它是用來作為產生文字的依據.

最近有大神發表了Transformer可視化解釋工具即Transformer Explainer如下
https://ithelp.ithome.com.tw/upload/images/20240913/20103333De9InlqtEZ.png
https://github.com/poloclub/transformer-explainer

真的是非常酷炫, 可以用來理解Transformer的運作原理, 不再是硬核的數學方程式, 截圖如下
https://ithelp.ithome.com.tw/upload/images/20240913/20103333wvd6jt1Br7.png
https://poloclub.github.io/transformer-explainer/

就來簡單說明一下:
第一個部分是將文字轉換為可以用來表示它們的字詞向量即Embedding, 每一個單詞或字稱為tokens, 展開之後如下圖
https://ithelp.ithome.com.tw/upload/images/20240913/20103333l24XjJwP38.png

第二個部分是最關鍵的部分, 透過Query, Key與Value去找出字詞位置間的相對關係類似於空間定位概念, 就是輸入Embedding(query)、和Embedding(key)所有位置比對、用比對結果加權Embedding(value), 這也是Day02提到GPT的Embedding搜索應用

第三個部分是透過神經網路運算萃取特徵值

第四個部分透過Softmax得到輸出字詞機率如下
https://ithelp.ithome.com.tw/upload/images/20240913/20103333Khof0px7sr.png

Transformer Explainer真的是為我們輕易地解開LLM的黑盒子啊/images/emoticon/emoticon34.gif

https://ithelp.ithome.com.tw/upload/images/20240910/20103333uQHtI1vegT.png
https://www.facebook.com/groups/818139776290690
今年弄了個專頁, 歡迎加入討論, 可以收到貼文的更新通知/images/emoticon/emoticon07.gif


上一篇
Day03 - GAI 與傳統 AI 有何不同
下一篇
Day05 - 如何與LLM溝通
系列文
Microsoft Copilot與它的小夥伴們31
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言