iT邦幫忙

2019 iT 邦幫忙鐵人賽

DAY 29
0
自我挑戰組

Machine Learning 學習筆記系列 第 29

[第29天] 卷積神經網絡 MNIST練習(4)

  • 分享至 

  • xImage
  •  

大致上的流程圖如下 數字些許不同
https://ithelp.ithome.com.tw/upload/images/20181112/20112303OdLISZgfz7.png參考網站1

今天要來看一下第二卷積層的樣子,基本上構造跟第一層一樣filter也是5x5但數量變成了64個。然後MAXpooling再一次將像素(第一層之後是14x14)降為7x7

# 印出第二層的filter
plot_conv_weights(W_conv2, 64)

https://ithelp.ithome.com.tw/upload/images/20181112/20112303BTaPUrot6b.png

# 第二層filter後的結果
plot_conv_layer(conv2d(h_pool1, W_conv2), mnist.test.images[0], 64)

https://ithelp.ithome.com.tw/upload/images/20181112/20112303tvsKPwZdTu.png

# 第二層經過 ReLU 的結果
plot_conv_layer(tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2), mnist.test.images[0], 64)

https://ithelp.ithome.com.tw/upload/images/20181112/20112303h5C8eSMIjU.png

# 第二層經過 MaxPooling 的結果
plot_conv_layer(max_pool_2x2(tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)), mnist.test.images[0], 64)

https://ithelp.ithome.com.tw/upload/images/20181112/201123036OubO9I48L.png

像素愈少愈看不出來了...但運算完結果機器分得出來就好...

最後全連結層(Fully Connected Layer),Dropout先前講過就是避免某個神經元權重過大因此隨機關掉再作training,而在全連結層之後會接一個 dropout 函數來避免overfitting。


上一篇
[第28天] 卷積神經網絡 MINST練習(3)
下一篇
[第30天] Google GPU 申請 與 參賽感想
系列文
Machine Learning 學習筆記30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言