iT邦幫忙

2025 iThome 鐵人賽

DAY 1
0

LeakyReLU

ReLU函數在x < 0時導入數值恆為0,也可能造成梯度彌散現象,為克服這個問題,LeakyReLU函數被提出。

ELU

ELU包含了ReLU的所有優點,不會有Dead ReLU問題,輸出的均值接近0。


上一篇
激勵函數
下一篇
神經網路(多層感知機)
系列文
深度學習Tensorflow 2.X16
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言