今天要來介紹一些常見的activation function,先從Relu三兄弟開始。
在類神經網路中如果不使用激勵函數,那麼在類神經網路中皆是以上層輸入的線性組合作為這一層的輸出(也就是矩陣相乘),輸出和輸入依然脫離不了線性關係,做深度類神經網路便失去意義。
深度學習:使用激勵函數的目的、如何選擇激勵函數 Deep Learning : the role of the activation function
可以看到,有了Activation function以後,網路產生極大的可變性,這樣我們才具有非線性的能力。
Activation function的圖片皆取自Activation Functions
elu是一種傾向於將數值更快地收斂到零並產生更準確結果的函數。
elu具有一個額外的alpha常數,且這個常數為正的。
有sigmoid的優點,但速度較快。
具有Relu的特點,但x<0時梯度不為0,可以解決dying ReLu problem。
今天我們看了三種Relu的兄弟。
深度學習:使用激勵函數的目的、如何選擇激勵函數 Deep Learning : the role of the activation function
Activation Functions