iT邦幫忙

2023 iThome 鐵人賽

DAY 13
0
AI & Data

深度學習-TensorFlow系列 第 13

DAY13-循環神經網路RNN(中)

  • 分享至 

  • xImage
  •  

LSTM 與GRU
兩者都是為了解決梯度消失而誕生的RNN變種。

LSTM (Long Short-Term Memory , 長短期記憶)
一種時間循環神經網路,適合用於處理和預測時間序列中間隔和延遲非常長等問題。也常見用於自主語音辨識。其最主要有三個門。

  • 輸入門 (忘記階段) : 決定這次的輸出是否需要被記憶,或是要記多少。
  • 普瑞普門 (選擇記憶階段) : 將這個階段的輸入有選擇性地進行記憶。
  • 輸出門 : 決定哪些將會被當成當前狀態的輸出。
    https://ithelp.ithome.com.tw/upload/images/20230928/20162982NSMquMdMug.png
    (圖片擷取至網路)

GRU (Gate Recurrent Unit , 門控循環單元)
有兩個門,GRU透過兩個門之間的線性彎曲來產生隱藏狀態,使得GRU的隱藏狀態與歷史資訊之間也變成線性關係,從而避免梯度消失的問題。

重製門 : 決定是否要在遺忘前留下隱藏狀態。
更新門 : 決定這次的隱藏狀態所要留下的比例。


上一篇
DAY12-循環神經網路RNN(上)
下一篇
DAY14-循環神經網路RNN(下)
系列文
深度學習-TensorFlow30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言