iT邦幫忙

2021 iThome 鐵人賽

DAY 23
0
自我挑戰組

Machine Learning With Me ,從零開始機器學習!系列 第 23

Day 23: Recurrent Neural Network — 循環精神網路初探(下)

  • 分享至 

  • twitterImage
  •  

Recurrent Neural Network 循環精神網路

前面講述了許多關於RNN循環精神網路的優點,不同於一般精神網路的優點,甚至比一般精神網路還要好的能力,卻不代表他沒有缺點。

https://ithelp.ithome.com.tw/upload/images/20210929/201415661pq4u52l9v.png

RNN的致命缺點

梯度消失問題(Vanishing gradient problem)
梯度消失問題是一種機器學習中的難題,出現在以梯度下降法和反向傳播訓練人工神經網路的時候。在每次訓練的迭代中,神經網路權重的更新值與誤差函數的偏導數成比例,然而在某些情況下,梯度值會幾乎消失,使得權重無法得到有效更新,甚至神經網路可能完全無法繼續訓練。
而為什麼RNN會發生梯度消失的問題呢? 這就是因為他訓練的方式是使用Back Propagation Through Time。因為小空間的歷史資訊太長了,RNN所使用的訓練方法並不是之前所提到的反向傳播法(BP, Back Propagation),而是進階版本的Back Propagation Through Time,與BP不同的地方就在於BPTT是透過時間來進行訓練的。

資料參考:
https://www.gushiciku.cn/pl/p5ok/zh-tw
https://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6%E6%B6%88%E5%A4%B1%E9%97%AE%E9%A2%98


上一篇
Day 22: Recurrent Neural Network — 循環精神網路初探(上)
下一篇
Day 24: AI機器學習 — TensorFlow初探(上)
系列文
Machine Learning With Me ,從零開始機器學習!30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言