iT邦幫忙

第 12 屆 iThome 鐵人賽

DAY 10
0
AI & Data

AI從入門到放棄系列 第 10

Day 10 ~ AI從入門到放棄 - 激勵函數

  • 分享至 

  • xImage
  •  

今天要跟大家解釋之前看到的activate是怎麼回事,以下等式的左側是一個全連接的4個神經元連接到3個神經元的權重,每個權重代表一條上層神經元連接到下層神經元的連接線,輸入一個4個元素的樣本,等式右側的結果將作為下層的輸入,但是在輸入給下層前會經過激勵函數的處理,為大家介紹幾個常見的激勵函數。
https://ithelp.ithome.com.tw/upload/images/20200903/20129770yt96PEEPST.png

  1. linear
    如字面所見的簡單,什麼進去就什麼出來。
    https://ithelp.ithome.com.tw/upload/images/20200903/201297707A34QkGJSd.png
  2. sigmoidhttps://chart.googleapis.com/chart?cht=tx&chl=1%20%2F%20(1%20%2B%20exp(-x))
    剛才的例子經過此函數後,會變成https://chart.googleapis.com/chart?cht=tx&chl=%5B0.000016701%2C%200.9933%2C%200.00669%5D
    https://ithelp.ithome.com.tw/upload/images/20200903/20129770edVoqLyMlm.png
  3. tanh
    剛才的例子經過此函數後,會變成https://chart.googleapis.com/chart?cht=tx&chl=%5B-0.9999%2C0.99991%2C-0.99991%5D
    https://ithelp.ithome.com.tw/upload/images/20200903/20129770AnRlSik25U.png
  4. relu
    此函數特性在0以上時,與linear相同,0或0以下時會被clip到0,由於此函數在計算上的方便,與真正神經元在生物學上的特性相似,避免梯度消失,歸0關閉部分神經元減少了過擬合的問題,現在大多都使用此函數或其改進型。
    剛才的例子經過此函數後,會變成https://chart.googleapis.com/chart?cht=tx&chl=%5B0%2C5%2C0%5D
    https://ithelp.ithome.com.tw/upload/images/20200903/20129770bO52YwOF72.png
  5. softmaxhttps://ithelp.ithome.com.tw/upload/images/20200903/201297705SIvo9tEee.png
    前面所提到的函數只考慮1個元素,此函數會考慮所有元素,轉換出來的結果為元素的指數與所有元素指數和的比值,其和正好等於1,符合我們對0~9出現機率的要求,很常被用來作為多分類模型最後輸出層使用的激勵函數。
    剛才的例子經過此函數後,會變成https://chart.googleapis.com/chart?cht=tx&chl=%5B0.00000011253%2C%200.99995%2C%200.00004539%5D

具體內容詳見Tensorflow文檔介紹。


上一篇
Day 09 ~ AI從入門到放棄 - 檢視初步成果
下一篇
Day 11 ~ AI從入門到放棄 - 優化器、損失函數、評價函數
系列文
AI從入門到放棄30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言