iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 11
0
Google Developers Machine Learning

我是高中生,我學ML和NLP系列 第 11

【Day 11】RNN學習筆記II Part III

  • 分享至 

  • twitterImage
  •  

如果出現Gradient Vanishing的問題,就可以使用之前提到的LSTM來解決。

https://ithelp.ithome.com.tw/upload/images/20190924/20103852kzJgFrpQ7g.png

LSTM之所以可以解決Gradient Vanishing,是因為在處理memory時,除非因為forget gate關掉把memory的值洗掉(多數情況不會),否則都會將memory乘上forget gate的值加上input,不會像原本的RNN在每一個時間點將memory重新洗掉。

但即使如此,LSTM因為參數太多的關係還是太難訓練。當訓練結果不佳時,可以使用和LSTM相似但使用的gate參數可以少1/3的模型:

Gate Recurrent Unit(GRU)

GRU是LSTM的改造版,當我們在存取memory時,還會和input加起來在傳遞到output gate中。GRU認為forget gate和input gate兩個東西的權重當一邊大時,另一邊就會相對小,反之亦然。所以將forget gate和input gate的參數合併成一個,會得到比較高的performance。

https://ithelp.ithome.com.tw/upload/images/20190924/20103852yEYDJioAmc.png


上一篇
【Day 10】RNN學習筆記II Part II
下一篇
【Day 12】-番外篇- 學生會學權面試
系列文
我是高中生,我學ML和NLP20
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言