iT邦幫忙

第 12 屆 iThome 鐵人賽

0
自我挑戰組

AI 高中生的自我學習系列 第 19

Day 19 - 卷積神經網絡 CNN (4)-Pooling layer & Activation Function

  • 分享至 

  • xImage
  •  

Pooling Layer

影像的spatial information不會因scale而消失,所以加入pooling layer來減少運算量。
在此階段,數據大小會大幅降低。

https://ithelp.ithome.com.tw/upload/images/20201211/20130601cjfhJtuctj.png
以Max Pooling為例,它會將4格方格內之最大值取出,並捨棄其餘三者。其方式與convolution有點相似。
Pooling Layer的目的就是要進行降維,將整個數據量壓小,讓整個模型參數量可以在下降,避免訓練的時候overfitting。

https://ithelp.ithome.com.tw/upload/images/20201219/20130601Z4dA0qmdf7.png

Flatten Layer (Full Connection)

有關Full Connection , 請參考我的另一篇Day 14 - 神經網絡(D)NN 到 卷積神經網絡CNN (1)
即經典的MLP(Multi-Layer Perceptron) layer,最後輸出10維即為對應數字的機率
Flatten的運作方式很簡單,就是將二、三維數據攤平,簡化為一維數據(想像將一張20*20的圖片拉成長為400的線)。
Flatten的目的是將CNN與DNN做銜接,通過此步驟後,就可以進行DNN了!

Activation Function

(wiki)將數據帶入一特定函數中,以改變其值。

簡單如---
https://ithelp.ithome.com.tw/upload/images/20201219/20130601B9siYHqFwE.png

Relu為例:
https://ithelp.ithome.com.tw/upload/images/20201219/20130601JHkWFKuTSa.png

https://ithelp.ithome.com.tw/upload/images/20201211/20130601cVVO8WYncY.png
Activation Function的目的是將數據做調整,以改變訓練時間、結果。

註:本文是搜尋數個網站及各種不同來源之結果,著重在學習,有些內容已難辦別出處,我會儘可能列入出處,若有疏忽或出處不可考,請聯絡我, 我會列入, 尚請見諒。

上一篇
Day 18 - 卷積神經網絡 CNN (3)-Convolution layer
下一篇
Day 20 - 天眼CNN 的耳朵和嘴巴 - RNN(1) -傳統RNN
系列文
AI 高中生的自我學習30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言