iT邦幫忙

2022 iThome 鐵人賽

DAY 12
0
AI & Data

上課了!李宏毅老師 機器學習 (2021)系列 第 12

自注意力機制 (Self-attention) 之一

  • 分享至 

  • xImage
  •  

剛剛竟然因為按錯按鈕以致文章全沒惹(我傻眼)...

如果輸入一串又一串的向量,也就是向量的集合,或是說,輸入的向量大小事會改變的。例如說,我們輸入一個句子,每個句子的字彙數量會不相同。直覺的做法就是將每個字用 one-hot encoding 來轉成一個向量。但這樣做要先統計所有的文字才能做編碼。所以可以使用 word embedding 的方法來做才會比較適合。

輸出的類型可以分為三類。

  1. 每一個向量對到一個輸出。例如一個句子,句子中的每個字都對到一個詞性。或是一段語音,每段發音都對會到一個字。或是一個圖,每個節點(人)都會對到一個特性。
  2. 所有的向量集對到一個輸出。例如一個句子是正面還是負面。或是從一段語音判斷是誰在說話,或是一個分子是否有毒性等等。
  3. 輸出的大小事有模型自己決定,向市文字翻譯、語音翻譯都是。

上一篇
卷積神經網路 (Convolutional Neural Networks, CNN)
下一篇
元學習 Meta Learning 之一 元學習跟機器學習一樣也是三個步驟
系列文
上課了!李宏毅老師 機器學習 (2021)16
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言