iT邦幫忙

0

這樣的架構圖長什麼樣

  • 分享至 

  • xImage

https://ithelp.ithome.com.tw/upload/images/20181128/201136557AvhPfNenh.png
這是某篇論文附的code 想請問像這樣的情況 架構圖長什麼樣
謝謝回答
原文:In this stage, the data is fed to the neural network and trained for prediction assigning random biases and weights. Our LSTM model is composed of a sequential input layer followed by 2 LSTM layers and dense layer with ReLU
activation and then finally a dense output layer with linear activation function.
論文:https://www.ijsr.net/archive/v6i4/ART20172755.pdf

自砍訊息。
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

1 個回答

不明
【**此則訊息已被站方移除**】
0
poohhung
iT邦新手 5 級 ‧ 2018-11-29 09:29:37

不專業碼農~~回答

目前看來是4個輸入 (相同資料 輸入兩次 不同的LSTM)
最後合併
然後輸出1個數值
(本想輸出可視化的圖形,但出現Bug@@)
可以參考
https://medium.com/@daniel820710/%E5%88%A9%E7%94%A8keras%E5%BB%BA%E6%A7%8Blstm%E6%A8%A1%E5%9E%8B-%E4%BB%A5stock-prediction-%E7%82%BA%E4%BE%8B-1-67456e0a0b

這篇文章我有看過,所以他是

  1. 輸入進來,
  2. 先跑128個神經元的Lstm,
  3. 在跑64神經元的lstm,
    4.接著16神經元的全連結層(Dense,一直不太理解他應該叫全連結還是隱藏)用relu激活函數,
  4. 最後用1神經元全連結linear激活函數輸出
    這樣嗎!?
    還有一個問題就是
    為什麼第一層的lstm 是用return_sequence=ture
    第二層是用=false!?
    第一層多個輸入先進來求多個輸出,第二層時,多個從第一層出來的輸出在求單一輸出
    這樣理解對嗎 謝謝回答不好意思找不太到這樣的解答感恩

我要發表回答

立即登入回答