iT邦幫忙

2022 iThome 鐵人賽

DAY 10
0
AI & Data

【30天之新手學習筆記】PyTorch系列 第 10

Day 10 - 激勵函數(Activation Function)介紹

  • 分享至 

  • xImage
  •  

前幾天的文章主要都是提到關於張量的計算以及將資料轉化為張量的相關內容,而在今天的學習中我想對深度學習裡,關於關於類神經網路的部分,寫一些關於讀過相關書籍和看過網路上大神們寫的相關文章後的個人學習心得,說到神經網路這個詞,就不得不提到激勵函數這個詞,而什麼是激勵函數在我完全沒有接觸過深度學習之前,我看到激勵函數這四個字,我會將激勵這個詞理解成是一種類似於獎勵的機制,而它的英文activation被翻譯成使某事開始或使其開始運作的行為,所以顯然的跟我的理解有些出入.

激勵函數

在多層的神經網路中,上層節點的輸出和下層節點的輸入之間有一個函數被稱為激勵函數.神經網路中激勵函數的作用主要就是將多個線性輸入轉換為非線性的關係.
下面是激勵函數的三個相關性質:

  1. 非線性
  2. 可微性
  3. 單調性

在不同的例子中,我們會使用到不同的激勵函數,像是在卷積神經網路(CNN)的卷積層中,會選擇使用ReLU這個激勵函數;而循環神經網路(RNN)中,則會選擇tanh或ReLU作為激勵函數.

PyTorch中常用的激勵函數

  • Sigmoid 函數
    https://ithelp.ithome.com.tw/upload/images/20220924/201526715g6AcHXKfN.png

  • tanh函數
    https://ithelp.ithome.com.tw/upload/images/20220924/20152671jf4USbFn4n.png

  • ReLU 函數
    https://ithelp.ithome.com.tw/upload/images/20220924/20152671T9skIFa7C3.png

  • Softplus函數
    https://ithelp.ithome.com.tw/upload/images/20220924/20152671Q7XC4qBA9f.png


參考資料:


上一篇
Day 09 - PyTorch自動計算梯度(autograd)
下一篇
Day 11- 激勵函數的實作
系列文
【30天之新手學習筆記】PyTorch30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言